...le journal de bord,
                 "mural" et virtuel
presque quotidien, 
             de connaissance militante continue...
 
 


 
Il "senso" estetico dell'organizzazione nelle macchine,
ovvero:
Sul "sentire" nelle macchine

a) Introduzione La physis
La presente ricognizione si propone di evidenziare alcune caratteristiche della formazione e dello sviluppo della cibernetica [1] e, in modo particolare, della cosiddetta cibernetica dei sistemi mentali. Nel corso della trattazione si segnaleranno, inoltre, alcune delle trame sottili che collegano la cibernetica dei sistemi mentali con gli attuali sviluppi delle neurotecnologie. Verranno passate in rassegna, infine, le più significative invenzioni che hanno permesso di costruire delle macchine-automa coeve, per poter tracciare una mappa più estesa del nuovo mondo dell'informazione.[2]
L'impostazione prospettata sottende la physis come relazioni tra organismi intelligenti della materia (vivente e non),[3] dall'organizzazione dei microrganismi microscopici ai complessi sistemi delle macrostrutture delle galassie ed oltre
(dal momento che si suppone che ci sia un oltre, se si tiene conto dei nuovi calcoli astronomici).
In questo modo ogni ordine, dal filosofico, al linguistico, allo psicologico, ecc., che ne deriva, é riscontrabile non solo come organizzazione tecnologica della conoscenza, ma, specialmente, come applicazione operativa di informazioni; viene studiato, in questo modo, contemporaneamente, sia l'organismo nella sua struttura che il suo comportamento nell'ambiente[4] sotto il segno della complessità .
Si ipotizza cosi' che in ogni organizzazione fisiologica della physis vi siano degli agenti intelligenti che sentono, computano, strutturano, e rispondono agli stimoli e alle informazioni riconosciute attraverso il sistema organico, o corpo. Importante pertanto é avere presente come (1) dagli oltre 2000 anni della tradizione filosofica occidentale siano comunque emerse teorie sul ragionamento e sull'apprendimento, insieme al punto di vista che la mente sia costituita dal funzionamento di un sistema fisico;[5] (2) da oltre 400 anni in matematica sono state formulate teorie formali sulla logica, sulla probabilità , sul calcolo e su come prendere decisioni;[6] (3) da quasi 130 anni abbiamo individuato degli strumenti indispensabili con cui investigare la mente umana e un linguaggio con cui esprimere le varie teorie;[7] (4) più recente é la evoluzione degli studi linguistici, perché non si prende come punto di riferimento i Corsi di F. de Saussure dell'inizio novecento, ma a partire da B. F. Skinner[8] e da N. Chomsky[9] attraverso i quali si inizio' a comprendere l'ambiguità  del linguaggio e il suo essere formulato in modo non molto esplicito (cio' comporta oggi che per comprendere il linguaggio si debba includere sia l'argomento in oggetto che il contesto e non solo la mera struttura delle frasi; e fu all'inizio del 1960, sebbene precursori fossero stati nell'analisi letteraria i formalisti russi, che questo inizio' ad essere teorizzato compiutamente);[10] (5) infine dalla informatica, cioé quella scienza e tecnica dell'elaborazione delle informazioni per mezzo di macchine automatiche e soprattutto elettroniche (calcolatori e computer), é sorta quella intelligenza artificiale (AI, [Artificial Intelligence] negli Stati Uniti o, tradotta, in molti testi in italiano con IA [Intelligenza Artificiale]) delle macchine di cui qui si trascorrono velocemente i primordi, giusto per individuare la genesi teoretica e la struttura sia tecnica che operativa.[11]
D'altra parte é noto che l'evoluzione dell'ambiente, nel corso di milioni di anni, ha prodotto dei cambiamenti sulla Terra e con queste metamorfosi si é modificato sia il modo di configurare che di organizzare le forme della vita. Si é assistito, cosi', ad una trasformazione delle forme viventi che ha implicato modifiche relazionali dal comportamento al modo di pensare alla funzione operativa, nonché la stessa materia fisica, o organismo dei viventi, ha subito notevoli mutamenti. Nel corso di questi ultimi decenni notevole importanza ha assunto l'informazione e il modo in cui si trasmette e si organizza nello stesso organismo vivente. Non a caso oggi si pensa che nel sistema di informazione umana al di sopra di tutto vi sia il DNA con il suo traduttore l'RNA che trasmette alle proteine le informazioni necessarie per organizzare, ricevere, elaborare, manipolare e operare facendo agire o reagire tutti gli organi fisiologici (compresa la mente) attraverso semplici o complesse strutture organizzate di informazioni.
L'uomo é cosi' considerato attualmente dai ricercatori come una macchina che funziona con elementi organizzati attraverso processi biologici che implicano in parte reazioni chimiche e in parte elettriche.[12]
Quest'uomo, pertanto, pur essendo considerato una struttura autonomamente organizzata, é connesso alle altre strutture; e, quindi, si puo' dedurre che i suoi sistemi applicativi variano (sebbene i principi costitutivi possano essere gli stessi) non solo per l'organizzazione, ma per i "contenuti" informativi che vi sono coinvolti, specie per il variare dell'ambiente in cui il sistema biologico umano (in quanto organizzazione biologica vivente) opera, per cui riconosce forme che producono azione.
Non é un caso che in un periodo di convergenza di tutte le scienze, la riflessione della maggior parte del mondo scientifico passa oggi attraverso la fisica, fino a coinvolgere le riflessioni di quelle scienze dal valore estetico-sociale ed etico-metafisico della conoscenza. Sul versante scientifico un buon biologo, come base per la biochimica, deve conoscere non solo la cosiddetta fisica elementare, ma anche molta fisica moderna (meccanica quantistica, ecc.) e molta chimica. Lo stesso fisico, d'altra parte, ha il suo ben da fare: c'é una fisiologia della fisica e una biologia della fisica, compresi alcuni studi delle neuroscienze; queste, infatti, fanno risalire la loro origine alle scoperte di Galvani e Volta sulla elettricità fisiologica. Nonostante che la biologia non interessi direttamente a questo fisico, egli ne é obbligato a conoscere almeno una parte, perché nel suo lavoro ha a che fare con la chimica fisica e la biofisica. Oltre a cio' c'é da ricordare la biochimica e, mentre sembra che una parte della fisica si estende verso la biologia, d'altra parte alcuni aspetti matematici della fisica iniziano a prendere una maggiore evidenza, specie nei calcolatori elettronici. Non a caso un computer comprende elementi puramente fisici, come i suoi componenti, e matematici,[13] come la logica che si pone alla base della sua progettazione. Gli stampati al silicio, infatti, che compongono la memoria di un computer, sono predisposizioni di funzioni in architetture miniaturizzate di pura matematica. Senza dimenticarci che tra le altre branche della fisica c'é lo sviluppo della ricerca astrofisica, astromeccanica, ecc., cioé dell'ordine, della formazione-nascita e della fine dei cosmi (o degli accidenti delle forme, specificherei, da estetologo, o mi soffermerei sulle apparizioni di organizzazioni dell'universo segnico, da semiologo).
Tutto cio' é partito dallo sviluppo della conoscenza umana che si basava sul sapere e sulla esperienza che abbiamo classificato nelle scienze col termine di «fisica» e che riguarda soprattutto, nell'accezione «classica»: «l'estensione senso-motorio dell'uomo». Un uomo, per il mondo fisico-naturale, cosi' come viene configurato oggi, dispone di un completo e organizzato apparato fisico, sia sotto forma di organi di senso atti a registrare e a recepire il mondo esterno e sia sotto forma di complessi muscolari, che azionati, tendono a modificarlo. L'uomo, inoltre, per la digestione, il controllo e il mantenimento del metabolismo si avvale di un apparato chimico molto elaborato, e questo é diventato in tempo recente, per gli studi della biochimica, sempre più intellegibile. Ma sono stati gli studi sull'apparato fisico sensoriale e muscolare, che noi meglio conosciamo, che hanno indotto l'uomo a comprendere razionalmente quelle funzioni microrganiche che rientrano, anche con gli studi sui tessuti e sulle cellule organiche, nella grande famiglia della «fisica».
La ricerca scientifica, inoltre, con il progredire di nuove tecnologie, ci ha dischiuso le porte di microcosmi, di regni invisibili che partecipano alla nostra vita quotidiana, nonostante che siano situati ancora al di là  di una nostra completa esperienza cosciente. (é bene ricordare che con gli studi sulla elettricità  ed il magnetismo non é più il mondo primario degli oggetti fisici ad essere considerato come primario ma sono gli accidenti degli eventi fisici che hanno luogo nello spazio circostante, che con Faraday prima e poi con Maxwell, entrarono [1861-64] preponderantemente con la nozione di campo. Il campo della scienza, fin dalla sua origine, era il campo mentale, con risvolti matematici, fatto di forze complesse, colmo di tentacoli che, con trazioni, spinte e movimenti si manifestava e muoveva o spostava oggetti fisici del luogo ideale entro cui avvenivano gli effetti elettromagnetici che lo scienziato osservava). Allo stesso tempo assistiamo alla apertura di frontiere per possibili esperienze extraterrestri, mentre a noi non resta che pensare di appartenere ad un mediocosmo.[14] L'esperenzia della vita che gli umani compiono deve, pertanto, svolgersi in questa sfera di mediocosmo; al di là  del nostro periodo di sonno che si estende in un altro ristretto e privato medicosmo che é alimentato da sogni desideri fantasie o anche «realtà», ma che a sua volta puo' apparirci altrettanto vasto ed estraneo.
L'esistenza di tutti questi «luoghi», che ci permettono di organizzare relazioni tra forme e conoscenza e da cui si ricavano informazioni per la nostra vita, hanno indotto l'uomo a porre dei confini tra quello che sta fuori di noi e quanto sta dentro di noi, anche se questi confini ci appaiono oggi sempre più labili. Ogni parte di questo mediocosmo si propone, in questo nostro tempo, come un mondo: ovvero come una physis minore senso-motoria attraverso cui si tessono relazioni con gli altri corpi; e poi questo mediocosmo organizzato diventa un sistema complesso attraverso cui il nostro corpo sente e fa esperienze utili a svelare il processo di organizzazione e di funzionamento non solo di questo ma anche dell'intero nostro organismo intelligente (si consideri poi oltre alle comuni esperienze di identificazioni individuali, come potrebbe essere il sogno, le fantasie, anche alla identificazione con quegli organismi sociali, o con quelli universali).
Basta anche una semplice forma che venga riconosciuta al di fuori di noi che ci possiamo porre l'interrogativo sul mistero della nostra stessa origine (affrontando temi filosofici attuali e non, come il mito, l'ontologia o la meontologia, l'essere o il divenire, ecc.) o sulla necessità  capitale di un rapporto pieno e completo tra l'uomo e il mondo esterno, o tra l'uomo e i microcosmi, o tra l'uomo e gli altri viventi, ecc, fino lanciarci in un rapporto ultimo, universale, tra l'uomo e il sistema dell'intero cosmo (per non parlare di come oggi nei paesi ad alto potenziale tecnologico si é modificata la configurazione di Dio, sia nelle consolidate teologie e sia nelle neoteologie scientifiche e non).
Sondare poi il mondo di una umanità  originaria porta necessariamente lo spostamento dei confini della nostra esperienza, in un mediocosmo, in un mondo percettivo organizzato da altri «sensi» che non sono quelli che comunemente definiamo fisici, ma possono essere organizzati come un corpo che percepisce, indaga, organizza, e agisce attraverso suoi sistemi quale potrebbe essere quello dell'intelletto, o quello della ragione, o quello della psiche, o quello dell'"anima"¦ o quello spirituale. A questi corpi (naturali), che ci permettono di entrare in mondi ed universi percettivi organizzati, sia fisicamente che mentalmente che spiritualmente ” e da cui ricavavamo informazioni, strutture logiche e comportamenti per risolvere i problemi della vita nel mediocosmo comunemente detto bio-fisiologico-quotidiano ”, oggi dobbiamo aggiungere un nuovo corpo che ci rivela un nuovo cosmo relazionale: quello tecnologico.[15]
Rinveniamo nelle nostre letture, in questi ultimi tempi, frequentemente, la convinzione che il nostro comportamento ordinario viene sempre più condizionato dagli oggetti tecnici che gli uomini hanno inventato, oltre che dalla comprensione razionale dei nuovi rapporti che si sono instaurati tra le cose. Non a caso la maggioranza di coloro che vivono nelle società  a forte sviluppo tecnologico crede che queste esigenze e relazioni siano altre da quelle di cui ci informava una visione ingenua o «primitiva» del mondo. Nonostante che cio' sia innegabile, c'é da sottolineare che in tutte le organizzazioni umane agisca come stimolo il desiderio di un, sia pur relativo, affrancamento dalla schiavitù del lavoro. Questo affrancamento spinge l'uomo verso lo sviluppo e la invenzione di nuove macchine, oggi sempre più complesse, che vanno dal biologico al tecnologico. Non a caso spesso troviamo macchine che "simulano" o operano in modo sempre più somigliante agli umani, fino a sostituire le funzioni dei viventi.
Le nuove macchine riorganizzano spontaneamente la natura (con le sue forme) rinnovandola nella sua naturalità . Le macchine, pertanto, possiedono oggi una «forza formatrice» intrinseca con cui riorganizzano il mondo naturale. Già  Kant aveva rilevato cio', quando parlando della natura, che produce oggetti organizzati, affermo': «Un essere organizzato non é dunque una semplice macchina, che non ha altro che la forza motrice: possiede una forza formatrice, tale che la comunica alle materie che non l'hanno (le organizza): una forza formatrice, che si propaga, e che non puo' essere spiegata con la sola facoltà del movimento (il meccanismo)».[16]
Cio' che dagli uomini viene più imitato e reso operativo nella natura é oggi l'intelligenza, quel rapporto corpo-cervello-mente che produce azioni formatrici nel mondo fisico.
Charles Lumsden ed Edward O. Wilson agli inizi del 1980, proprio ponendosi il rapporto scienza e interpretazione delle arti, rinvennero nelle loro ricerche che l'interpretazione delle dimensioni multiple tra cui la storia, la biografia, la linguistica e il giudizio estetico avevano origine da riferimenti a processi logico-materiali della mente umana. Da questa ottica auspicarono una collaborazione tra scienziati e studiosi di discipline umanistiche alfine di trovare un procedere comune; in seguito alcuni studiosi del mondo dell'arte per sottolineare questi intenti comuni coniarono il termine di biopoetica o bioestetica.
A tal proposito Wilson afferma che «Capire l'origine dell'innovazione nel campo artistico porterà  a un modo completamente diverso di interpretare le creazioni. Le scienze naturali hanno cominciato a farsi un'idea della mente, inclusi certi elementi del processo creativo. Sebbene si trovino ancora a grande distanza dell'obiettivo ultimo, alla fine non potranno che rafforzare l'interpretazione delle arti. Charles Lumsden e io siamo giunti a questa conclusione all'inizio degli anni Ottanta, mentre stavamo elaborando la teoria della coevoluzione gene-cultura¦ Una simile posizione é stata adottata, a partire da presupposti diversi, da una cerchia ristretta di artisti e teorici dell'arte tra cui i più conosciuti sono Joseph Carroll, Brett Cooke, Ellen Dissanayake, Walter Koch, Rovert Storey e Frederick Turner.[17] Alcuni di questi studiosi hanno etichettato un tale approccio con il termine biopoetica o bioestetica».[18]
A dieci anni di distanza il percorso auspicato da uno studioso di estetica italiana sulle «macchine senzienti», come «estraneazione di un sentire» in un sistema (aggiungo io) che é «già  sentito» attraverso cui la dimensione estetica inizia ad acquisire una vera effettualità  e potere senza far ricorso alla metafisica, alla ontologia o alla fenomenologia ma attraverso la eterofenomenologia la biologia la astrofisica e le scienze cibertetiche-cognitive.[19]
«Dopo le macchine agenti e le macchine pensanti, l'immaginazione scientifica esplora oggi l'ipotesi di una macchina senziente. L'ingresso del problema della sensibilità  e dell'affettività  nelle scienze cognitive é una conseguenza del grande evento di cui siamo testimoni di questo fine millennio, l'estraneazione del sentire in un già  sentito che non appartiene più all'uomo. Gli interrogativi sul che cosa si prova ad essere un pipistrello o ad essere un sasso o una qualsiasi altra cosa, non sono bizzarrie fantafilosofiche o fantascientifiche, ma si collocano in un orizzonte storico-culturale in cui da un lato é sottratta all'uomo la facoltà  di sentire, dall'altro l'intera dimensione estetica acquista effettualità  e potere. In questa nuova prospettiva diventa oggetto di riflessione la pipistrellità , la sassosità  e più in generale l'esseribilità , cioé una generale suscettibilità  di sentire indipendente del sentire in prima persona. La domanda su chi sente é definitivamente sostituita  dalla domanda su chi amministra e gestisce la circolazione del già  sentito».[20] In questa ottica estetologica dei sistemi cognitivi del «già  sentito» (o feedback), su cui sono state costruite le prime macchine senzienti, va sottolineato anche lo sviluppo tecnologico non solo su come (e attraverso quali utensili) sono state costruite le macchine, ma anche su come circolano in esse le informazioni e attraverso quali sistemi si organizzano o si possono riprodurre come nella «estetica della comunicazione».
b) Un mito tecnologico e le origini della cibernetica L'uomo fin dall'antichità  é stato affascinato dagli automi. E' ormai risaputo che nel mondo letterario-mitologioco di Omero si é affermato per la prima volta l'idea di automa.[21] Popper ed Eccles ne hanno esplorato le origini dandone un innovativo contributo.
Efesto, il dio del fuoco della mitologia greca, ( o Vulcano per i romani) era lui che costruiva cose strabilianti per gli dei. La sua nascita, diversa da quella narrata nell'Iliade di Omero, ci viene raccontata da Esiodo nella Teogonia :«Ed Era adiratasi gareggiando col marito, genero' senzâ essersi mescolata in amore, l'inclito Efesto, di arti ornato da tutti gli Urani».[22] Efesto, sciancato, per l'ira di Zeus[23] ma «ornato di arti da tutti gli dei» é l'inventore di opere d'ingegno mirabili. Tra queste si annovera Pandora col suo vaso,[24] ; anche se alla costruzione della donna Pandora, portatrice di mali all'umanità , si dice che vi avessero partecipato tutti gli Dei. Ma cio' che é innegabile é il fatto che Efesto fosse il costruttore di oggetti magici come il già  citato vaso di Pandora, i tavoli a tre gambe, i cosiddetti tripodi che andavano alla riunione degli dei e vi ritornavano da soli, e poi dalle saette di Zeus fino alle donne automa, che erano fanciulle d'oro, una specie di ragazze tutto fare, che si muovevano parlavano e ragionavano come esseri viventi.
Oggi l'Efesto arcaio potrebbe essere paragonato, con le dovute distanze, da una parte ad un ingegnere pratico di robotica o di AI e dall'altra ad un biologo dedito ad esperimenti di ingegneria genetica o al pari di un fanerologo studioso della trasmissione in laboratorio delle informazioni genetiche ai neuroni di uomini e animali attraverso la luce; oramai, potremmo considerare questi uomini di scienza attuali come degli Efesti della trasmissione delle informazioni.
Efesto comunque é da ritenersi, per il suo appartenere alla mitologia dall'antichità , come il primo costruttore di oggetti tecnologici. I biologi attuali combinano i geni dell'informazione nei propri laboratori e indagano sull'anello originario della vita al pari di coloro che costruiscono le intelligenze artificiali nelle macchine e, pertanto, tutti questi possono essere considerati come degni continuatori dell'opera di Colui che era il costruttore degli oggetti magici in Grecia e a Roma. Se il superuomo genetico[25] che si sta costruendo in laboratorio a questo punto ci spaventa, poco importa perché le Parche, secondo Quine, per coloro che lo desiderano, possono imperterrite continuare a tessere il filo della nostra vita.[26]
***
Nel suo processo evolutivo e attraverso una nuova concezione della epistemologia[27] la scienza ha dato impulso ed é stata essa stessa coinvolta nella evoluzione delle altre discipline. La storia della scienza é passata dai tempi mitici fino a giungere a quelli naturali[28] e recentemente é coinvolta nelle descrizioni dei nuovi campi aperti dal tecnologico e dal biologico-artificiale attraverso le nuove ipotesi, con l'indagine sempre praticata, sulla nascita e sulla fine della vita secondo le attuali «protesi» di osservazione che rivelano mondi subatomici (ad es. attraverso il microscopio elettronico) e galassie astrofisiche (ad es. attraverso il cannocchiale o telescopio elettronico).
In questa nuova riorganizzazione paradigmatica della scienza ha dato un fondamentale contributo la cibernetica[29] con le scoperte tecnologiche e la riflessione su di esse.
Wiener, infatti, pone a sostegno teorico della cibernetica un elemento tecnico-pratico, derivante dalla organizzazione e dal funzionamento di un sistema.
Ogni sistema cognitivo in base alla ricorsività  [feedback] si pone anche come sistema operativo. (Il concetto di feedback é ormai entrato nel linguaggio delle neoscienze psicologiche e degli attuali studi sul cervello e sulla robotica).
L'attività  fenomenologica legata ad una tecnologia o sistema di conoscenza operativa é stata, invece, in filosofia della scienza, espressa dai cibernetici della seconda generazione con il termine di eterofenomenologia.
La cibernetica, cosi', oltre a trovare i fondamenti di una recente rivoluzione scientifica si presenta alla riflessione epistemologica con una nuova caratteristica paradossale: in essa la prassi tecnica acquista addirittura un significato di ordine teorico. Viene cosi' reso per la prima volta effettivo il rapporto tra tecne e logos.
Questo evento ebbe una portata straordinaria sia per quanto riguarda il piano scientifico che filosofico, culturale e sociale.
Dal canto loro gli scienziati dapprima iniziarono a produrre energia, poi, attraverso dei canali, a farla circolare in modo organizzata in flussi di energia. Essi si adoperarono, infatti, a realizzare dapprima una installazione a più funzioni assemblando flussi diversi e diverse energie in una stessa macchina; poi studiarono come attraverso dei sistemi si poteva far lavorare questa macchina al posto degli uomini; e, in seguito, progettarono delle macchine che, manipolando informazioni, potevano interagire con l'ambiente attraverso l'energia elettrica. Controllare e trasformare in informazioni l'energia e contemporaneamente inventare nuove protesi meccaniche più funzionali é il successivo passo di questa evoluzione delle macchine.
La scoperta tecnologica che diede il primo e maggiore impulso alla evoluzione delle macchine con più funzioni elettriche fu quella del tubo elettronico.
Gli attuali studi sul cervello hanno evidenziato proprio la canalizzazione e il passaggio di un potenziale d'azione in quel fenomeno chimico-elettrico che avviene nel cervello umano con il processo di depolarizzazione. Questo ha molte analogie con le aperture o chiusure di canali nel tubo elettronico. La differenza tra i due é sostanziale anche nel sistema di propagazione della informazione. In questo processo di depolarizzazione dell'organismo umano, più complesso, sono coinvolti dei neurotrasmettitori chimici, dei recettori e lo spazio della sinapsi dove avviene il transito e il passaggio di elettricità .[30]
Il tubo elettronico funge invece da «semplice» amplificatore di energia e con esso si puo' controllare e comandare il flusso di energia in base alla polarizzazione degli elettrodi. Successivamente quando furono creati elaboratori elettronici che potevano realizzare modelli complessi, mediante elaboratori elettronici sempre più sofisticati, la cibernetica amplio' la propria incidenza di disciplina teorica fino a diventare oggi una indiscussa disciplina del sapere.
In una prima fase la cibernetica, in base a semplici schemi logico-matematici, aveva messo in rilievo la grande incidenza della tecnica sulla teoria. Man mano che le società  industriali si sono sviluppate non hanno potuto fare a meno dell'apporto della conoscenza organizzata ciberneticamente, ovvero attraverso i sistemi operativi. Basta ricordare che il sistema per rendere operative le conoscenze trova uno dei fondamenti sociali da tutti riconosciuti nello sviluppo e nella economia di un paese. Fu senz'altro per questa ragione che il progresso tecnologico e industriale, appena apparve questa scienza, adotto' la logica del neo-razionalismo cibernetico fondato sull'organizzazione sistematica dei dati di informazione, poi sulle prestazioni ultrarapide dei calcolatori o delle macchine ecc.; insomma grazie a questa scienza furono velocizzati i rapporti di scambio sia di informazioni che delle merci.
Mediante la riflessione cibernetica si é giunti a dimostrare come la tecnologia ha modificato il metodo moderno della scienza positiva.
La scienza cibernetica fonda l'indagine e la sua verifica sui propri strumenti di osservazione, o ad esempio sulle operazioni di feedback [o retroazione] dove é fondamentale che l'osservatore sia inserito all'interno della struttura del sistema operativo (eterofenomenologia). Il sistema operativo diviene, per questa scienza, esso stesso informazione. Ecco brevemente i principi su cui sono state costruite poi le varie teorie.
L'informazione va intesa come un qualsiasi insieme di dati o di fatti organizzati in messaggio.[31] Essa si presenta come una organizzazione codificata di una parte dell'universo suscettibile di dirigere delle azioni. L'informazione é alla base della teoria dell'informazione, questa si occupa della trasmissione delle informazioni. L'individuo stesso é visto come un organismo biologico che contiene informazioni.[32] L'informazione nella rete elettrica di una tecnologia viene tradotta in unità  di bit.[33] Lo schema di una rete elettrica di informazione é costituito nel modo seguente: sorgente d'informazione fi codificatore fi canale fi decodificatore fi ricevitore.[34]
L'uomo, che anch'esso é dotato biologicamente, dalla propria evoluzione naturale, di un sistema chimico-elettrico, viene oggi osservato e analizzato nelle sue componenti in base alle stesse leggi della macchina. Anzi le macchine tentano di assomigliare e di perfezionarsi in base alle scoperte sulla complessa struttura umana.
La scienza positiva attuale[35] cosi', in breve, fonde questi due elementi costituenti i propri principi d'indagine affermando che la cibernetica é la tecno-logia stessa.
Il rapporto innestato dalla cibernetica tra tecne e logos ” con l'energetica operativa ”, in Italia, fu interpretato da Linguiti come il tentativo per rifondare e riunificare le teorie scientifiche.[36]
La cibernetica oggi fonda il suo sviluppo sul relazionare organizzare e rendere operative in modo veloce il maggior numero di informazioni.
L'apprendimento di informazioni di questo tipo porta direttamente a come si utilizzano i nuovi media: essi costruiscono un sapere non solo epistemico nuovo, ma anche pratico. Non a caso, infatti, ogni interazione pensata tra uomo e macchina (o uomo e mondo esterno) contempla anche una componente attiva, cioé un «saper agire» accanto al «saper essere» e al «saper fare».[37]
Da questa ottica i nuovi media non solo riorganizzano il mondo ma lo fanno sentire e vedere attraverso l'applicazione funzionale dei sistemi operativi delle esperienze.
Analizzando queste affermazioni secondo le direttrici di Wiener e della cibernetica si tenta di ricercare analogie tra il modo di operare da una parte delle classi sempre più ristrette degli esseri viventi, quelle degli animali e degli uomini e, dall'altra parte, della classe delle macchine. Wiener all'origine di questa scienza cosi' sentenziava: «E' mia convizione che il comportamento degli individui viventi é esattamente parallelo al comportamento delle più recenti macchine per le comunicazioni».[38] Questa affermazione trova spiegazione nella remota convinzione di Wiener, Bigelow e Rosenblueth, riguardo alle analogie che ci sono nello studio di questi due gruppi: gli organismi viventi e le macchine. «I metodi di studio per i due gruppi sono oggi simili. Se saranno sempre gli stessi oppure no dipenderà  dalla presenza di una o più caratteristiche qualitativamente distinte e tipiche di un gruppo e non dell'altro. Queste differenze qualitative non sono state trovate. Le grandi classi di comportamento sono le stesse nelle macchine e negli organismi viventi».[39]
c) Comunicazione tra macchina e macchina
Le macchine, nella forma degli attuali elaboratori di informazioni elettroniche e dei sistemi artificiali basati su di esse, posseggono una caratteristica che le differenzia da tutti gli altri strumenti che l'uomo ha costruito finora. Quelle, infatti, sembrano aver infranto la barriera che da sempre separava l'uomo dai suoi strumenti, perché sono in grado di eseguire compiti che finora erano stati di dominio esclusivo dell'uomo.
Tra i primi teorici impegnati nella cibernetica vi é stato anche qualche ingegnere o costruttore di macchine. Bisogna comprendere come le nuove generazioni di macchine hanno cambiato sia l'uomo che il suo rapporto con gli strumenti tecnologici, e come oggi le novissime e le future generazioni di macchine lo potranno modificare in modo radicale.
I primi cibernetici quando affermano che «ogni utensile ha una propria genealogia e che esso discende dagli utensili con i quali é stato fabbricato»[40] ci informano anche su tutta una filosofia e organizzazione della vita connessa all'uso pratico delle cose; e solo attraverso «il concorso di una serie di macchine che sono state a loro volta fabbricate con altre macchine»[41] risaliamo ad una genealogia degli utensili e delle macchine.[42]
Nonostante che la nostra Era é denominata «l'Epoca della macchina» pochi sono coloro che hanno sufficienti nozioni sulla sua origine o una chiara visione dello sviluppo configurato attraverso la tecnica moderna. La storia sociale fa risalire l'origine della prima importante trasformazione industriale nell'invenzione di Watt della macchina a vapore; mentre gli studi di economia mettono in rilievo come la evoluzione importante é da ritenersi l'invenzione delle machine automatiche, che danno impulso ad un altro tipo di lavorazione dei prodotti e di distribuzione del lavoro.
Nell'Europa Occidentale la macchina ha avuto uno sviluppo graduale per almeno sette secoli, prima di giungere ai radicali cambiamenti che hanno caratterizzato la svolta della «Rivoluzione industriale». Dietro le grandi invenzioni tecnicologiche degli ultimi duecento anni circa non vi era solo una tecnica produttiva che cambiava ma un intero modo di pensare e di essere. Questo processo industriale si affermo' soltanto quando si vide sorgere  nell'uomo un nuovo orientamento culturale che coinvolse l'intera esistenza e credenze dell'uomo, ponendo nuovi obiettivi, consuetudini, scopi e producendo nuove idee e modi di sentire ed organizzare la vita.
In questo modo si puo' rilevare che ruolo hanno recitato l'organizzazione tecnica e le scoperte scientifiche a essa connessa nello sviluppo della moderna civiltà ; e come poi queste vengono strettamente legate ad un nuovo assetto delle strutture ideologiche e della organizzazione sociale. Il mondo del pensiero é legato, da questa prospettiva, agli sviluppi tecnologici. Anzi c'é la convinzione che la modificazione della tecnica produce un nuovo modo di pensare e di organizzare il mondo. Le scoperte scientifiche e i materiali utilizzati servono per sfatare vecchie credenze e riorganizzare sotto un nuovo paradigma l'intera esistenza umana. La filosofia innovativa diventa espressione di questa trasformazione in atto che tiene conto del nuovo pardigma di credenze umane. Cosi' é stato anche per il nuovo mondo delle macchine. La ricerca ha avuto il suo esordio agli inizi del secolo scorso e ha trovato la sua formulazione nel 1934 con Mumford: «Vale a dire che il Weltbild meccanico iniziatosi nel XVII secolo deve ora essere sostituito da una filosofia e da un metodo che rendano piena giustizia alla natura umana, nella sua completezza. Per salvare la scienza e la tecnica, entrambi preziosi strumenti del progresso, dobbiamo prima salvare l'uomo, divenuto vittima dei suoi strumenti che egli stesso ha creato e sopravvalutato. La tecnica non puo' trovare risposta ai suoi dilemmi risultati da una evoluzione tecnica unilaterale. L'ipertrofico sviluppo di questo settore puo' solo aumentare la disparità  che ora esiste fra potere fisico e scopi sociali, fra metodo scientifico e disciplina morale, fra la nostra capacità  di distruggere e la nostra capacità  di creare».[43]
Per comprendere come si é giunti alla produzione delle macchine che sentono bisogna ripercorrere gli ultimi sviluppi tecnici delle invenzioni.
Di solito una nuova macchina é il prodotto di un assemblaggio di macchine già  di per sé complesse. Dalla seconda metà  del 1700 la macchina é stata strettamente legata ed identificata con lo sviluppo del mondo economico.
Si ricorda a questo punto l'impulso innovativo dato dall'arte della navigazione con il cronometro nautico e con le tavole di navigazione,[44] e come questi strumenti siano stati ritenuti un punto di svolta per una nuova rivoluzione in campo industriale.
L'invenzione della macchina a vapore trovo' altre applicazioni, oltre all'essere identificata ai mezzi di locomozione (si pensi non solo al piroscafo e alla locomotiva a vapore ma anche alla primitiva macchina Newcomen per pompare acqua dalle miniere).
L'industria tessile agli inizi del XIX secolo era quasi tutta meccanizzata, la filatura meccanica forniva orditi ai telai meccanici. Le prime macchine tessili erano azionate a mano, sebbene ben presto ad esse furono applicate l'energia termica e idraulica. Successivamente con l'introduzione della macchina a vapore in queste fabbriche si tento' di collegare ad una unica macchina i vari fusi e telai meccanizzati. Dapprima i soli mezzi per la trasmissione di energia erano delle leve o congegni meccanici; poi l'energia prodotta dal vapore inizio' ad essere trasmessa ai telai per mezzo di alberi di trasmissione sospesi alle travi e di pulegge collegate alle singole macchine per mezzo di cinghie.
Il primo motore elettrico fu impiegato nell'industria verso il 1875 e fu considerato subito un possibile strumento per le moderne tecniche industriali. Altra importante scoperta di quel periodo fu il tubo elettronico che serviva a regolare un grande sistema di energia attraverso un gran numero di processi separati. Successivamente questa invenzione di Edison fu usata per controllare e dirigere con piccole tensioni notevoli correnti. Da qui, secondo Wiener, inizio' a costruirsi la moderna industria meccanizzata. Dei piccoli motori elettrici potevano controllare, attraverso l'applicazione della teoria dei circuiti, una energia di grandi dimensioni. Questo fu il motivo per cui furono sostituiti gli ingegnosi accorgimenti meccanici di vecchio tipo nelle industrie con i nuovi strumenti offerti dalla teoria dei circuiti elettrici. Piccoli motori elettrici potevano trasmettere e suddivididere l'energia ottenuta. Questi motori permisero contemporaneamente la trasmissione di diverse quantità  di energia collegate ad una stessa macchina produttrice di energia, attraverso canali multipli di tensioni.
L'anno 1876 fu importante anche per l'invenzione del telefono.[45] A questa invenzione del mondo delle comunicazioni fu applicato per la prima volta il tubo elettronico. Solo successivamente, ci ricorda sempre Wiener, il tubo elettronico fu usato dagli ingegneri elettrotecnici per sostituire le componenti dei vecchi circuiti telefonici a grande distanza e quelle della telegrafia senza fili, nel radiotelefono, nel radiotelegrafo, nonché nella radio. Il tubo elettronico oltre a regolare la pianificazione meccanica della industria fu utilizzato, cosi', anche nell'industria delle comunicazioni. L'energia elettrica in questo modo fu applicata sia al mondo della produzione industriale, sotto forma di energia meccanica, sia come circuiti per la trasmissione di informazioni, attraverso l'industria della comunicazione vera e propria (anche se l'industria della comunicazione non veniva all'origine per niente affatto considerata come tale).
Il tubo elettronico all'inizio pero' trovo' rare applicazioni nella industria, insieme alla invenzione gemella, la cellula fotoelettrica.
La seconda guerra mondiale fu un evento importante per studiare l'automazione nelle macchine. Essa indusse ad applicare con successo alcuni automatismi alle macchine belliche.
I cannoni antiaerei dovevano muoversi con agilità  per seguire puntare e sparare contro gli aerei nemici ed avere una maggiore probabilità  di colpire il bersaglio. Si studio' allora come un uomo potesse dare dei comandi precisi alle armi da fuoco ed ottenere un puntamento veloce. Si penso', cosi', di fornire la macchina bellica di una centrale di tiro e previsione.[46] In tal modo il comando veniva dato ad una macchina anziché ad una persona con segnalatori che ne prevedevano il comportamento. L'organizzazione del meccanismo innescato dalla macchina come comportamento venne chiamato dispositivo di retroazione.
Il metodo di regolazione era stato analizzato in matematica da Clerk Maxwell nel 1868, dove la retroazione viene impiegata per regolare la velocità  di una macchina, allora specie nelle macchine a vapore di Watt. Il principio di retroazione era già  conosciuto come la forma computazionale della macchina e dispositivo di calcolo.
Nel periodo pre-bellico della seconda guerra mondiale si era tentato con successo di far funzionare il tubo elettronico in automatismo con la macchina, senza l'intervento di un agente umano. In base a calcoli affidati ad una macchina calcolatrice che si basava su amplificatori meccanici Vannevar Bush[47] riusci' a far funzionare una macchina calcolatrice che Charles Babbage[48] aveva soltanto intuito.
Gli amplificatori di carattere meccanico vennero ben presto sostituiti da conduttori elettrici regolati da un dispositivo a tubo elettronico. Queste sono le prime macchine calcolatrici sul cui sistema di calcolo si fondano sia quelle analogiche, cioé che misurano entità  fisiche, che quelle digitali, cioé le macchine numeriche che eseguono calcoli e operazioni di carattere aritmetico.
In quel periodo era inportante organizzare automaticamente le varie parti delle macchine finalizzate alla produzione di certi obbiettivi, siano essi dispositivi di calcoli che per produzioni di forme industriali.
Le diverse parti della macchina, infatti, comunicano tra di loro attivando il proprio comportamento in base alle operazioni volute quando si immettono delle richieste di un comportamento attraverso l'attivazione di dispositivi. I primi automatismi meccanici delle macchine sono stati i primi dispositivi, che, poi, con l'elettricità  e l'elettronica costituiscono i modelli-tipo per la costruzione di tutti i primi apparecchi di comando.
Con l'applicazione di questi, ormai primitivi, dispositivi elettrici le macchine e le fabbriche iniziano ad essere organizzate in modo sempre più automatico. Lo stesso corpo umano e le sue malattie neurologiche[49] e fisiologiche vengono oggi studiate in base a questi principi dell'organizzazione del tubo elettronico e del principio di retroazione. Wiener cosi' si esprime: «Cio' che la retroazione e il tubo elettronico hanno reso possibile, non sono progetti isolati di singoli dispositivi automatici, ma un sistema generale per la costruzione di congegni automatici dei tipi più diversi. In cio' essi sono stati favoriti dalla nostra nuova trattazione del concetto di comunicazione, che prende piena coscienza della possibilità  di comunicazione tra macchina e macchina. E' questa favorevole congiuntura che rende oggi possibile la nuova Era degli automatismi».[50]
d) Il sentire delle macchine
Le macchine moderne si differenziano vistosamente da quelle del passato in base a nuovi componenti, ai nuovi materiali, e al modo di assemblarli. Le macchine del passato erano costruite mettendo assieme semplici ingranaggi ad orologeria, le nuove macchine, invece, oltre ad avere meccanismi funzionanti con l'impulso elettrico e ad avere strutture retroattive, sono provviste di sensori.
Le cellule fotoelettriche vengono spesso considerate come i primi rudimentali sensori delle macchine. Non a caso l'invenzione gemella del tubo elettronico é ritenuta proprio quella della cellula fotoelettrica. Entrambe queste invenzioni hanno fornito un nuovo corpo e una varietà  di funzioni (per non dire «sensibilità ») alla macchina.
Le cellule fotoelettriche sono state usate la prima volta per verificare alcuni prodotti nell'industria, ad esempio esse venivano utilizzate per controllare la colorazione delle etichette di un prodotto o verificavano lo spessore di un foglio di carta.
Quando affermiamo che le macchine moderne sono fornite di organi sensori, diciamo che esse sono fornite di una struttura organizzativa che riceve e riconosce flussi di corrente elettrica (o messaggi) attraverso cui si innescano dei dispositivi  o degli ingranaggi  operativi. Cio' permette alla macchina di operare automaticamente attraverso dispositivi nel mondo esterno ed essere considerata al pari di qualsiasi altro sistema operativo.
Non a caso queste macchine sono state considerate le prime rudimentali macchine con meccanismi eterofenomenologici.
Esse all'inizio erano fornite di una semplice cellula fotoelettrica, che modificava il suo comportamento non appena entrava in contatto con la luce. Ed é per questa ragione che si dice che la cellula fotoelettrica distingue il buio dalla luce e, se legata ad una centralina di calcolo, ne calcola la intensità .
Una tensione alta di corrente puo' essere misurata e riconosciuta nell'analisi di una conduttività  o meno di un filo elettrico esposto alla corrente, la sua temperatura é misurata in base alla termocoppia.
Tutti gli strumenti che rivelano i passaggi o la quantità  di corrente che li attraversa possono essere usati come organi sensori.
Una macchina semplice che agisce sul mondo esterno in base a messaggi é ad esempio il cancello automatico. Esso agisce sul mondo esterno in base ai messaggi.
Si invia un raggio di luce verso un sensore di un dispositivo fotoelettrico, il quale se riconosciuto, cioé se il sensore 'si impressiona' per l'azione di una stessa intensità  luminosa, fa scattare l'apparecchio di manovra che agisce sulla porta e la apre. L'azione comporta un immissione (o segnale) di dati finalizzato ad un certo effetto (o emissione). Questo semplicie meccanismo puo' essere usato per attivare qualsiasi dispositivo che desideriamo; importante é aver preregistrato, ovviamente, nella memoria della macchina, l'effetto o emissione e l'intensità  del segnale attraverso cui si apre il dispositivo.
Ogni dispositivo attivato ha una memoria preorganizzata in base alla quale si ottengono delle risposte. La macchina diventa operativa in base alla informazione che le si dà : ovvero in base alla attivazione di un dispositivo che apre un canale di tensione e aziona la risposta desiderata.
Il sensore nella macchina é cio' che porta a buon fine il comando che attiva una risposta predeterminata e precedentemente memorizzata. Il comportamento della macchina é una condotta già  calcolata ed é conosciuta come feedback [retroazione] e implica che la parte sensoria, attivando la parte motoria, svolga una funzione di rilevazione o segnalazione di funzioni comportamentali della macchina.
All'origine le applicazioni dei sensori nell'industria non erano ancora associate alle funzioni della comunicazione elettromeccanica. Negli Stati Uniti, verso gli anni '50, la catena di montaggio fornisce l'esempio di una sensibilità  ricettiva della macchina: il riconoscimento, anche se dapprima é molto semplice, é efficiente.
Il sensore trovo' il suo sviluppo non appena fu collegato ai calcolatori automatici.
I segnali elettrici esterni percepiti attraverso le fotoelettriche avevano bisogno di un calcolatore automatico (computer) ad alta velocità , che rivelasse la posizione in base ad una traduzione della posizione in un modello di cifre consecutive.
Fu cosi' che il sentire esterno della macchina appena fu collegato ad un sistema di riconoscimento di retroazione divento' autonomo. Basto' semplicemente connettere questa ricezione ad un calcolatore automatico che memorizzava i sistemi di cifre consecutive.
I calcoli di riconoscimento, regolati da un sistema centrale di comando ” che é¨ un sistema logico e matematico ”, venivano tradotti in azioni dalle operazioni di retroazione.
Sappiamo che queste operazioni possono essere semplici o complesse.
Le macchine elettriche connesse al sistema di calcolo diventano, in questo modo, macchine che ricevono e producono comunicazione.
La scoperta del funzionamento e del controllo della meccanica nonché i processi logici e di calcolo applicati ai circuiti elettrici come strutture comunicative segna la vera evoluzione della macchina. Le macchine, nella catena industriale, essendo fornite di «organi di senso» e di una centralina elettrica di calcolo potevano già  funzionare senza l'intervento umano. Dagli anni '50 si é potuto dotare le fabbriche di automatismi in cui l'uomo é diventato solo un controllore.
Nel futuro prossimo si puo' prevedere che l'uomo potrà  rinunciare anche a questa funzione di controllo in quanto altre macchine con sistemi operativi /più intelligenti/ controlleranno queste macchine.
Le macchine che sentono e che pensano autonomamente erano già esperienza che aveva una sua realtà , fin dagli anni '50 del XX secolo. Si aspettava solo che fossero inventati dei materiali meno costosi con cui costruire circuiti meno complessi e più piccoli; tutto il resto era già  un problema risolto dai cibernetici. Cio' che si ricercava erano sistemi computazionali più grandi e più veloci che avessero permesso una memorizzazione più ampia. Questi dovevano servire non solo per sfruttare al meglio la sensibilità  degli organi sensori, ma anche per riuscire poi a manovrare dei servo-meccanismi (ad esempio braccia meccaniche, motori che regolano i movimenti ecc.) con una maggiore praticità  (specie con la scoperta di materiali più flessibili e resistenti) in modo che la macchina potesse interagire meglio col mondo esterno. Da allora la macchina viene progettata e costruita adeguandola agli stessi criteri dell'organismo vivente.[51]
Wiener cosi'­ nel 1950 descrive l'organizzazione e il funzionamento di un sistema sensorio e di computazione elettro-meccanico: «Naturalmente, noi presupponiamo che gli strumenti che rispetto al sistema agiscono come organi sensori, registrino non soltanto lo stato iniziale del lavoro, ma anche il risultato delle operazioni compiute nel corso di tutti i processi precedenti. In tal modo la macchina puo' eseguire operazioni di retroazione, sia quelle di tipo più semplice, oggi interamente comprese, sia quelle che implicano processi più complessi di selezione, regolate dalla centrale di comando come sistema logico o matematico. In altri termini, il sitema generale corrisponderà  all'animale completo con organi sensori, esecutori e propriocettori, e non come nella calcolatrice ultrarapida, a un cervello isolato che dipenda per le esperienze e per il suo funzionamento dal nostro intervento».[52]
Lo studio delle macchine ha dato nuovo impulso alla ricerca neurofisiologica, cinestesica e ha moltiplicato gli studi computazionali applicati alla robotica. Da allora si puo' dire che si sono costruite in una rapida successione molte macchine che sentono facendo riferimento al loro sistema ricorsivo. A partire da quelle primitive macchine se ne sono costruite altre sempre più complesse. Macchine sempre più complesse, infatti, occupano i nostri ambienti o le nostre abitazioni e, da semplici elettrodomestici a due o tre sistemi di riconoscimento, ora iniziano ad avere intelligenze vere e proprie, con microcomputer che permettono una sensibilità  macchinica di gran lunga superiore a quelle prime macchine elettriche. Le nuove macchine oggi accedono a sistemi multipli di riconoscimento in base alla funzione, alla memoria e ai collegamenti tra i sistemi.
La ricerca é indirizzata non solo sui sistemi e sulle funzioni ma anche sulla manovrabilità  e sulla costituzione, o struttura «fisica», o corpo della macchina.
e) Nuove tecnologie per nuovi sistemi di organizzazione della conoscenza
Le nuove scoperte scientifiche parlano di 'attrezzi' ad alto contenuto tecnologico che costituiscono l'interfaccia tra la scienza pura e la scienza applicata. Uno di questi é il microscopio ad effetto tunnel (STM, scanning tunneling microscope), uno strumento che é capace di esplorare la materia di un oggetto in modo da individuarne le rugosità  fino al livello atomico. Si possono inoltre sfruttare apparecchi abbastanza recenti di laser (ad esempio quelli in grado di produrre impulsi calcolati in femtosecondi, 10-15 s) ed elaboratori con capacità  elevatissime di calcolo, necessari per gestire un enorme quantità di dati. Dopo il silicio nuovi materiali possono trovare vita ultilizzando la luce di sincrotone. Siamo già alla quarta generazione di macchine che possono produrre la luce di sincrotone. Questa é una luce simile al laser, ma concentrata di più nel dominio spettroscopico dei raggi X ed é in grado di generare un fascio di radiazione polarizzata estremamente intensa. Questo strumento a effetto tunnel puo' essere utilizzato per ottenere materiali nuovi a fibre di carbonio.
Esiste poi un livello mesoscopico della ricerca industriale. Nella mesoscopia l'unità  di misura é il nanometro (10-9 m). In questo caso non si parla solo di materiali, ma di veri e propri oggetti: le cosiddette nanostrutture. Esempio ormai classico é il microchip, la famosa piastrina di silicio che contiene una memoria dell'ordine dei megabyte. Quello che a noi interessa é che la miniutarizzazione dei sistemi di calcolo computazionale viene introdotta nella micro-meccanica e dà  inizio alla costruzione delle micromacchine. Nel campo medico già  funzionano dei microrotori che si installano nelle vene per controllare il flusso del sangue. Il futuro é costruire micro-robot che hanno componenti microelettronici e micromeccanici. Anche a livello mesoscopico si costruiscono nuovi materiali. Uno di questi nuovi materiali, ci ricorda Renzo Rosei,[53] si ottiene «utilizzando le risorse dell'optoelettrica, e in particolare una tecnologia già  in in uso da anni, l'epitalassia a fascio molecolare (MBE, molecular beam epitaxy)».[54] Con l'epitalassia «si riesce a sintetizzare il materiale 'appoggiando' uno strato atomico sull'altro. Il ricercatore puo' quindi controllare la costruzione del materiale strato per strato, intervenendo per ottenere un prodotto su misura. Una delle strutture realizzate con questo procedimento é l'arseniuro di gallio e alluminio. Se si osserva il risultato con un ingrandimento sufficiente si nota che la transizione da un componente all'altro é assolutamente netta: quando cioé si passa da uno strato atomico al successivo, si 'salta' improvvisamente dall'arseniuro di gallio a quello di alluminio».[55]
A questo vanno aggiunti strumenti che controllano il comportamento atomo per atomo. In questi ritornano gli strumenti come il sincrotone, il microscopio a effetto tunnel e il laser, per manipolare questi nuovi assemblaggi di materiali.
Nella fisica ad esempio gli scienziati stanno pensando di costruire transistori a dieci stati, per poter eventualmente introdurre e utilizzare una logica decimale invece che binaria nei computer. Nella biologia, nella farmacologia, nella chimica si usano le nuove tecnologie per ricostruire strutture pronte all'uso da utilizzare per nuove applicazioni. La moleca del diamante usata come super conduttore é uno di questo. Far depositare una pellicola di diamante sulla plastica diviene la sfida per ulteriori sviluppi e per ricercare nuovi materiali. Un altro materiale scoperto nel 1993 dalla università  americana di Harvard, ancora più duro del diamante é il nitruro di carbonio e che puo' essere utilizzato anche a scopi di produzione industriale. Macchine sempre più sosfisticate, come ad esempio l'APM, atomic processing microscope, sono utilizate per spostare atomi in una reazione chimica scegliendo una lunghezza d'onda opportuna.
Altra scienza che sta sfruttando al massimo la tecnologia é la biologia. Gli amminoacidi, gli enzimi, le proteine e finanche i virus sono oggetti di studio. Si adoperano la luce al sincrotone e un rilevatore elettronico che cattura le figure di diffrazione attraverso le tecniche della cristallografia a raggi X per definire nei dettagli la struttura della molecola che si vuole studiare.
Questi studi possono produrre informazioni in modo da inibire il proliferarsi di molecole nocive ad un organismo. In farmocologia si trovano applicazioni; «infatti, la conoscenza dettagliata della struttura di una sostanza responsabile di una certa patologia, consente ai ricercatori di individuare il modo di inibire l'azione e puo' portare alla costruzione di un farmaco progettato su misura di questo scopo».[56]
Conoscere l'enzima e la struttura su cui si va ad agire e osservare il loro incastro o la serratura (o chiusura) della reazione porterà  a medicine molecolari che riducono gli effetti collaterali.
Quanto fin qui detto é solo per illustrare che a partire dalla macchina siamo arrivati alle macchine biologiche che funzionano attraverso la fanerologia[57] e che organizzano le informazioni sia nel corpo che nelle macchine con il processo di retroazione [o feedback].
Questa differenza che si pone a partire dall'organizzazione dell'informazione da parte di un organismo biologico vivente oppure di un AI o di un computer o di un animale sia esso umano o extra (o infra) umano tra breve potrebbe non esserci più. Penso agli studi avanzati di «computer» biologici a sinapsi neurali «indossabili» (questi sono dei sistemi informativi di cellule nervose applicati ad altri sistemi biologici viventi utilizzati sia per le informazioni che posseggono e sia per le funzioni che devono svolgere nel nuovo organismo, come ad esempio gli esperimenti fatti sui neuroni delle sanguisughe che un giorno non lontano potranno essere utilizzati per il controllo del sangue e per la prevenzione degli infarti umani; questi sono facilmente trasferibili nel corpo perché sono sinapsi di dimensioni microscopiche;) che possono controllare le funzioni biologiche. Queste applicazioni sono più vicine di quanto non si possa prevedere.[58]
Esiste, poi, parallelamente, un settore di ricerca che negli anni ottanta é stato chiamato da Carver Mead,[59] professore di scienza dei calcolatorti presso il California Institute of Technology (Caltech), che viene denominato ingegneria neuromorfa «nell'ambito del quale l'analogia dei dispositivi progettati e i neuroni reali é più profonda, basata su corrispondenze fisiche e non solo formali. In altri termini, nell'ambito dell'ingegneria neuromorfa vengono progettati transistor che riproducono nel silicio i comportamenti dei canali ionici della membrana di un neurone reale. Il risultato é un 'neurone di silicio'. Un chip di silicio di un centimetro quadrato puo' contenere circa 200 neuroni connessi tra di loro. Quindi, in linea di principio, si possono progettare in silicio reti di neuroni che emulano il comportamento di quelli biologici su scala dei tempi dei nanosecondi, tipica dei dispositivi elettronici. Le dimensioni degli attuali dispositivi elettronici sono comparabili con quelle di un neurone, incluse le sue arborizzazioni più grosse. In teoria é quindi possibile collegare fisicamente un neurone di silicio a uno biologico. E' quanto propone di fare il gruppo di Gwendal Le Masson dell'Università  di Bordeaux, che descrive sistemi a metà  strada tra il naturale e l'artificiale, denominati 'ibridi'. Quest'ultimo esempio sottolinea come, nell'ambito della neuroingegneria, il confine tra naturale e artificiale non sia netto e come sia possibile ipotizzare che in futuro lo sarà  sempre meno».[60]
Le ricerche attuali inducono a supporre che nel prossimo futuro avremo macchine ibride tra il biologico e l'artificiale. Se il futuro dell'evoluzione delle macchine attraverso il biologico potrebbe anche essere costruito da ingegneri genetici in laboratorio, un'altra parte del corpo delle macchine potrebbe venirci fornito dalle ricerche sui materiali. Non é difficile prevedere che i nuovi materiali, che formeranno il corpo delle macchine intelligenti del futuro, saranno costruiti in laboratorio e saranno il frutto di assemblaggi dovuti ad una sofisticata e più elevata tecnologia.
f) Il futuro delle macchine e l'ambiente della informazione e del sentire robotico[61]
Il futuro é delle macchine biologiche, é delle macchine dei sistemi di intelligenze artificiali, é dei microcomputer, ecc. tutti forniti di sistemi di informazione e di auto-aggiustamento strutturale, che sottolineano sempre più l'introduzione nella organizzazione della vita su questo pianeta di macchine intelligenti che comunicano. L'uomo già  oggi ci appare come una macchina chimico-elettro-meccanica dotata di molteplici sistemi di informazioni eterofenomenologiche[62] che si attivano secondo meccanismi individuali psicologico-strutturali[63] di retroazione; infatti con l'attivazione dell'apparato macchinico si aggiusta continuamente il proprio sistema di relazione con l'esterno.[64]
Il corpo umano in futuro sarà di fatto una commistione di elementi biologici robottizzati, meccanici robottizzati in connessione interattiva con quelli chimico-elettrici e coi «residui» enzimatici dell'evoluzione naturale della specie.
L'ambiente tecnologico creato da un nanorobot biologico e applicato al sistema vivente umano[65] ad esempio porterà  a ridefinire le frontiere dell'automa (o del robot) e dell'uomo. Sappiamo per certo che sono intervenute nuove relazioni linguistiche oltre che é sopraggiunta una nuova organizzazione del sentire[66] umano che ha ridefinito le nostre conoscenze sul corpo. Quando si ridisegnano i nuovi confini della organizzazione della vita questi vengono tracciati attraverso la ridistribuire dei paradigmi linguistici dettati dalle nuove conoscenze. Ci si riferisce palesemente al concetto di paradigma di Kuhn,[67] con cui sono stati vanificati, nel tempo attuale, i concetti di progresso e verità . La evoluzione tecnologica ha contribuito internamente ed esternamente alla organizzazione del mondo dell'uomo, sia dal punto di vista linguistico che di relazione con l'ambiente. I simboli linguistici, la produzione tecnologica e l'organizzazione della vita sono in stretta relazione tra loro. L'evoluzione della cultura, nel mondo cibernetico della informazione, si pone a fondamento della organizzazione del mondo delle relazioni. La tecnologia, da questa ottica, va connessa e, pertanto, compresa, sia per mezzo delle modificazioni prodotte dagli atteggiameti umani verso il mondo o l'ambiente, sia per gli sviluppi linguistici, sia per l'organizzazione delle conoscenze e sia per i rilevamenti sul funzionamento (o sulle modifiche) dell'interiore e del proprio meccanismo percettivo (il corpo): «la tecnica degli utensili é di fatto solo un settore della biotecnica: l'attrezzatura dell'uomo per la vita».[68] Non a caso oggi si sa che cambiando l'organizzazione o i paradigmi di riferimento (sia fisici, che linguistici, che strutturali, che metafisici, ecc.) cambia il mediocosmo per cui cambia il modo di sentire, di esperire e di agire nel mondo del sistema biologico vivente.
Ecco come il complesso mondo fatto di utensili pratici (o oggetti tecnologici) e linguistici (o organizzazione metaforica del mondo) hanno indotto, parte di una generazione di filosofi, linguisti, antropologi, umanisti, storici delle invenzioni, ecc¦ fino a scienziati a promuovere una indagine culturologica più approfondita sul funzionamento del corpo, del cervello e della mente in relazione alle scoperte e agli usi degli strumenti tecnologici. Essi hanno messo questo funzionamento degli strumenti tecnologici in relazione allo sviluppo coevolutivo umano con l'ambiente, luogo, quest'ultimo, dove vengono trovate applicazioni alle scoperte individuali, sociali, scientifiche e tecnologiche. La vita o l'organizzazione umana nel suo complesso, sta indirizzando la sua evoluzione nell'uso di queste tecnologie, / anche se qualcuno parla di schiavitù/
ne ricerca e gode comunque i frutti di queste conoscenze scientifiche applicate ai progressi della tecnica.
E non voglio riferirmi alle teorie sviluppate dai contemporanei Bateson, Capra, Crick, Davies, Dennett, von Foester, Hofstadter, McLuhan, Minsky, Piaget, Portmann, Turing, Wiener, per citare solo alcuni noti filosofi-psicologi-biologi-neurofisiologi¦ e anche fisici-matematici-scienziati-ingegneri¦ accomunati a teorici culturologi interdisciplinari che hanno iniziato a ricercare nuove spiegazioni attraverso le scoperte biologiche, o fisiche dell'universo subatomico, o della astrofisica¦ per coinvolgere le spiegazioni sulla organizzazione della mente, del linguaggio, dell'informazione nel nuovo rapporto spazio-temporale del «reale» e del «sentire» col corpo, alfine di disegnare la nuova mappa della natura biologica del vivente. Definire l'essere umano come uno dei sistemi biologici viventi apre la via a nuove forme di ricerca impensabili e innanzitutto pone il problema sulla struttura ed organizzazione della mente. Il nuovo pensiero, nella sua organizzazione e applicazione linguistica, sia esso artistico che scientico che tecnologico o adoperato per la costruzione di macchine o utensili trasforma tutto in forme organizzate di informazione.
Fin dal passato si é sempre sottolienato il valore pratico della scienza, anche nella ricerca scientifica teorica delle verità astratte. Si noti ad esempio quanto afferma Bacone nel suo Progresso delle Scienze: "Se la mia opinione avesse qualche valore direi che l'impiego dei congegni meccanici tramandati dalla storia é fra tutti gli altri fattori il più innovatore e fondamentale per una filosofia della natura, quella filosofia della natura che non puo' svanire nelle nebbie della speculazione, sottile o sublime o dilettevole, ma che deve rendersi utile agli effetti del progresso e del vantaggio della vita umana." E Descartes, nel Discorso sul Metodo, osserva: "perché da queste restrizioni [le restrizioni generali della fisica] ho compreso che si poteva arrivare a conoscenze altamente utili nella vita, ed in luogo della filosofia speculativa abitualmente insegnata nelle scuole, scoprire una pratica, grazie alla quale, conoscendo la forza e l'azione del fuoco, dell'aria, dell'acqua, le stelle, i cieli, e tutti gli altri corpi che ci circondano, tanto bene quanto conosciamo le varie arti dei nostri maestri artigiani, noi potremmo similarmente applicarle a tutti gli usi cui essi sono adatti, e render cosi' noi stessi i maestri ed i padroni della natura. E questo é un risultato da desiderare, non solo per l'invenzione di una molteplicità  di arti, con cui possiamo diventare capaci di godere senza alcun incomodo i frutti della natura, e tutti i suoi vantaggi, ma anche e specialmente per la conservazione della salute, che é senza dubbio, di tutte le benedizioni della vita, la prima e la fondamentale, ché la mente dipende tanto intimamente dalla condizione e dalla correlazione degli organi del corpo, che se si potrà  mai trovare un qualche mezzo per far diventare gli uomini più saggi e più abili che per l'innanzi, io credo che questo debba venir ricercato nella medicina".[69]
Oggetti e pensieri, esterno ed interno non sono che un modo di organizzare la vita in un hic et nunc. Fenomenologia epistemologia e teoria evoluzionista, con psicologia, fisica, biologia, embriologia, morfologia e logica matematica, giusto per citare alcune neoscienze iniziano a camminare di pari passo alle arti della tecnica nel mondo della informazione. Tutte sono chiamate per svelare il mistero dell'esistenza e dare il proprio contributo alla conoscenza umana; e non bastano semplici confronti sull'analogia. Le questioni sorgono perché la meccanica della mente non puo' spiegare tutto. Il problema centrale della mente e della coscienza risiede oggi più che nell'individualità , nella funzionalità  di un sistema operativo.
Da qui deriva la convinzione che sono stati questi gli stimoli che hanno indotto gli uomini a ingegnarsi per costruire automi sempre più adeguati alla configurazione delle tecnologie cognitive, individuate e connesse all'incidenza e alla praticità  di utilizzo nell'ambiente.
La visione biologica elettrica e meccanica dell'universo da noi conosciuto pone sullo stesso piano il mondo della conoscenza e quello della organizzazione dei viventi. Sottolineare le tappe di avvicinamento a questo nostro mondo e notare le differenze da quello passato sarà utile specialmente per capire quanto siano dissimili i meccanismi che operano dietro le organizzazioni delle diverse strutture cognitive: solo in questo modo si potrà  con maggiore esattezza configurare il nuovo mondo dell'informazione. Il «sentire» che se ne ricava é l'esperienza di una organizzazione vivente che va dalla macro alla nanorobottizzazione.
Alcuni autori di romanzi di argomento fantascientifco hanno utilizzato alcune di queste teorie che allora erano studiate ed elaborate dalle scienze della cibernetica come ad esempio l'affermazione a prima vista paradossale pubblicata nel 1981 nel romanzo VALIS che «il mondo fenomenico non esiste; é un'ipostasi delle informazioni elaborate dalla mente».[70] Queste affermazioni sulla condizione umana non sono poi molto lontane da quanto affermava Calderon de la Barca nell'opera «La vita é sogno».
Di questo dramma seicentesco comunque vengono conservate in VALIS le direttrici rinvenute da Sigismondo per districarsi in modo giusto nel vano sogno della vita dei sensi e per produrre opere: «Operiamo mirando a cio' che é permanente e duraturo ” esclama Sigismondo. E' questa la gloria che non soffre tramonti. Là la felicità  é sempre sveglia; e là le grandezze sono sempre vive». Questo controllo delle verità  della mente sui sogni ignoti della natura oltre ad essere l'accettazione del progetto di Dio nel mondo é anche sinonimo che l'uomo puo', con la ragione, scrutare comunque la bellezza dell'ordine e delle disposizioni derivanti dalla Mente di Dio. Spinoza parla dell'amore intellettuale di Dio, Leibniz del miglior mondo possibile. Tutto questo é comunque metafora del risveglio della scientificità  operata dalle prime osservazioni ed esperienze del nuovo modo di concepire la scienza nei laboratori del seicento. Dick in VALIS si spinge oltre. Traduce nell'esperieza moderna la complessità  dell'influenza delle cose durature per giungere ad una sua organizzazione della vita, che non é distante dallo scienziato-filosofo, e premiato dal Nobel, Edelman o da Damasio o da Dennett. Noi qui preferiamo la chiarezza divulgativa del romanziere-filosofo Dick che sintetizza scienza e filosofia in una pagina letteraria. Conoscendo le scoperte scientifiche degli anni '70, infatti, fa scrivere a Fat, nella sua ricerca di sé: «Annotazione 48. Sulla nostra natura. é appropriato dire: noi sembriamo essere bobine della memoria (portatrici di dna e capaci di esperienza) in un sistema pensante di tipo computerizzato il quale, malgrado noi abbiamo correttamente registrato migliaia di anni di informazioni dovute all'esperienza, e ciascuno di noi possieda depositi, in qualche modo diversi, provenienti da tutte le altre forme di vita , manifesta dei difetti nella conservazione della memoria. Qui sta il guaio del nostro particolare sub-circuito. La 'salvezza' attraverso la gnosis (più esattamente l'anamnesi, la perdita dell'amnesia), benché possieda un valore individuale per ciascuno di noi (un salto quantistico in percezione, identità , cognizione, comprensione, esperienza di sé e del mondo, compresa l'immortalità ) ha un'importanza ancora più grande per il sistema in quanto totalità , per il fatto che questi ricordi sono dati di cui esso ha bisogno, dati preziosi per il suo funzionamento complessivo. Percio' esso é impegnato in un processo di auto-riparazione, che comprende: ricostruzione del nostro subcircuito attraverso trasformazioni temporali lineari e ortogonali, come pure la trasmissione di segnali per stimolare i nostri banchi di memoria bloccati ad accendersi e recuperare cio' che in essi é contenuto. Le informazioni esterne, o gnosis, consistono dunque di istruzioni dis-inibitorie, il cui contenuto di base é in effetti intrinseco a noi: ossia già  esiste (cosa che é stata osservata per la prima volta da Platone: ossia che l'apprendimento é una forma di ricordo). Gli antichi possedevano delle tecniche (sacramentali e rituali) largamente utilizzate nelle religioni misteriche greco-romane, compreso il cristianesimo primitivo, per indurre l'accensione e il recupero, soprattutto con il fine di restaurare dei valori per l'individuo; gli gnostici, tuttavia, vedevano correttamente il valore ontologico di quella che loro chiamavano la Divinità  Stessa, l'Entità  Totale».[71] In questo modo un romanziere contemporaneo collega la propria esperienza alle discipline scientifiche e ridefinisce, paradigmaticamente, il concetto di divinità .
E' chiaro a questo punto perché é necessario un continuo rimando ai processi fisiologici e cognitivi del cervello. Bisogna conoscere come viene assemblato il nuovo robot, attraverso quali nuovi automatismi e da quali nuove connessioni e sensibilità  sono provocate le relazioni tra macchine e macchine, e quali ulteriori relazioni ci sono tra macchine e sistemi biologici viventi nel mondo della informazione. Importante é osservare come l'organizzazione di queste macchine abbia la stessa struttura operativa dei sistemi biologici viventi; o come esercitano le loro funzioni di controllo, o addirittura come forniscono al corpo umano strutture operative per sopravvivere nell'ambiente. Solo da alcuni decenni si sono ottenuti i primi risultati nel campo biologico della fanerologia, cioé dei trasferimenti di informazione attraverso la luce nei sistemi biologici.
In molti casi il robot coevo vive ancora di complessi processi di cip elettrici (sono rare e segrete le ricerche sui primi assemblaggi biologici di strutture cognitive autonome viventi create in laboratorio, sono riscontrabili solo in autori di fantascienza, come ad esempio il su citato Dick, nei suoi romanzi «The Simulacra» e «Blade runner» fino alla trilogia di «Valis» solo là­ sono descritti e, addirittura, si confondono gli esseri biologici viventi costruiti in laboratorio con gli altri organismi biologici viventi provenienti dalla lunga catena della selezione naturale).
Il robot oggi puo' avere sembianze più vicine all'organizzazione dell'umano, non solo perché c'é stato uno sviluppo migliore della tecnica della costruzione, con la scoperta dei nuovi materiali, ma lo stesso suo interno é cambiato. Si é modificato innanzitutto il modo di far circolare dentro di esso le informazioni; ovvero sono cambiati i componenti assemblativi e i materiali e, con essi, la sua stessa organizzazione. L'organismo robotico necessita di maggiore elasticità  flessibilità  e leggerezza nonché ha bisogno della forza e di essere sempre più adeguato al nostro mondo elettronico attuale della circolazione di informazioni. Addirittura il robot inizia a sentire come gli umani (nel senso di riconoscere e rispondere alle sollecitazioni chimico-elettriche azionando alcuni dei dispositivi di risposta degli umani in modo autonomo). L'automa, il robot ed il nanorobot dopo essere passati dal mondo mitico alla «camera delle meraviglie» e poi usati come fantastici soggetti filosofico-letterari o fantascientifici, oggi fanno irruzione nella vita quotidiana come operatori autonomi e manipolatori di informazioni.
Quali aggiustamenti strutturali e di forma si richiedarà  al nostro corpo nel futuro per la sopravvivenza nell'ambiente lo sapremo prossimamente. Dovremo cedere una parte dell'ambiente vitale affinché queste macchine artificiali ci semplifichino la vita: se da una parte siamo agevolati per la nostra sopravvivenza nell'ambiente, dall'altra avremo uno spazio vitale più complesso da gestire. Noi lasciamo trattare questo tema ai nuovi esploratori del progresso scientifico; e non dimentichiamo di accennare come le modifiche fisiologiche, che si paventano in molti romanzi di fantascienza, possano trasformare gli umani in creature tanto diverse da oggi fino ad apparire mostruose ai nostri occhi, pur essendo il prodotto proprio dalla neo-civiltà tecnologica.
Gli automi realizzati dagli uomini nel passato potevano essere soltanto meccanici, grazie alla scienza genetica si é iniziato a formalizzare una teoria degli automi applicata ai sistemi viventi.[72] Questa teoria é basata sulla analogia, per tener conto delle difformità  di elaborazioni di risposte.
Non a caso la genetica moderna, ancora molto legata alla biologia molecolare, nella sua pratica attuale, é di carattere decisamente riduzionista. Questo genera molte difficoltà . I fenomeni del vivente, proprio perché osservati da queste giovani scienze richiedono spiegazioni frammentate, per la complessità  dei fenomeni, prima di giungere ad una visione unitaria d'assieme. Questa visione integrata o d'assieme dei fenomeni prima o poi avrà  ragione sui sistemi operativi non ancora compresi. Il riduzionismo scientifico non ha ancora compreso il funzionamento della memoria, del pensiero, del comportamento, per cui non si possono ricreare le condizioni di quegli «atomi» di memoria, di pensiero di comportamento, utili affinché si possa giungere ad una costruzione sistematica che avrebbe come fine una prospettiva integrata. Per ora si ipotizza che le entità  elementari siano costituite dal moltiplicarsi di queste reti funzionali di neuroni, che al momento non sono state identificate o definite. Ridurre la complessità  del funzionamento cerebrale a un iniseme di unità  elementari potrebbe essere considerato senza senso, per cui per questi sistemi cosi' complessi non potrebbe esistere un approccio riduzionista. Ma la fiducia é tanta se si pensa che la chimica, ai primordi veniva considerata come una magia prima che si scoprissero gli atomi e le molecole. La stessa eredità  biologica era un mistero prima che si rinvenisse la spiegazione dei geni. Prima o poi in un prossimo futuro troveremo elementi appropriati con cui si integrerà  il funzionamento (o almeno parte) del sistema nervoso e del cervello-mente.
Cio' che ha portato alla formulazione di una teoria degli automi biologici applicata al sistema vivente é quella di costruire dei modelli che coinvolgono un gran numero di elementi interattivi che vengono poi fatti interagire. Analizzando i vari comportamenti se ne trovano analogie con le risposte dei sistemi biologici viventi. Ad esempio una rete di automi.[73] Viene definito automa un componente capace di esistere su più stati, il più semplice é quello su due, attivo ed inattivo. Ognuno di questi automi viene collegato con quello prossimo da una legge di interazione. Esso trasmette segnali e puo' cambiare stato in funzione di quei segnali che esso stesso riceve. L'introduzione di costanti nel tempo di trasmissione e di risposta inducono gli osservatori ad una descrizione di reti di automi in funzione del tempo di esposizione. Simulazioni al calcolatore, poi, permettono di fare esperienze di reti di grandi dimensioni, come una rete piana di più di un migliaio di elementi. La risposta di questi automi sul lato comportamentale di solito é imprevedibile. Alcuni si raggruppano in isolotti coerenti di automi, certi vengono agitati dalle oscillazioni mentre altri identici restano costanti, degli anelli interattivi si formano tra gruppi di automi o tra quelli isolati , ecc. Queste relazioni inducono a formulare modelli per poter descrivere programmi genetici e per poter accostarsi alle reti funzionali dei neuroni. Da qui poi nascono i primi passi per una teoria degli automi legata ai sistemi biologici viventi e si connettono alle scoperte dell'ingegneria genetica con la costruzione dei primi nanorobot biologici. Nell'arte tecologica questa esperienza é proposta dall'«artista» bio-tecnologico Eduardo Kac.[74]
Il sentire estetico delle macchine, specie quello prodotto dai nuovi nanorobot biologici e le risposte alle alterazioni chimico-elettriche a cui il nostro organismo é sottoposto, produrrà  una nuova generazione di umani che piano piano modificherà  la sua stessa struttura biologica adeguandola al nuovo ambiente che si sta costruendo. Non a caso sul nostro pianeta da quasi un cinquantennio l'uomo sta modificando non solo l'intera organizzazione della vita ma quella degli stessi sistemi biologici viventi: quello degli animali, degli uomini ecc¦ anche di tutte quelle neo-macchine biologiche che ora iniziano a pensare e ad agire autonomamente. Ad esempio la biotecnologia e l'ingegneria genetica propongono già  oggi i nuovi processi di produzione di esseri viventi transgenici finalizzati a costituire «una nuova stirpe umana», a parte i cloni che sono divenuti quasi fenomeni marginali.
E l'arte? credo che sarà  considerata sempre più un «bene culturale», cioé diventerà  produzione di strutture e di tecnologie che potranno essere rivelatrici di molteplici forme di sentire. L'arte sarà  azionata dalle organizzazioni delle forme e dal «sentire» del biologico, nel vivente e nelle macchine.
Non a caso altrove ho evidenziato come
«L'arte come strumento d'informazione biologico-culturale, che lega l'uomo occidentale alle vestigia del pensiero e del 'sentire' greco-romano, é diventata patrimonio dei Beni ambientali e culturali presenti in questo nostro Bel Paese. Essa puo' essere utilizzata anche come merce, ma la stessa merce deve presentarsi come informazione e essere promossa e divulgata a tutti come Bene culturale. I nuovi artisti dovranno sempre più avere dalla loro organizzatori di informazioni che promuovano cio' che si simula (e/o si imita) nelle opere e facciano circolare informazioni sulla 'architettura' e sulla 'tecnica' della costruzione dell'opera. Solo cosi' gli artisti possono sperare di ricevere riconoscimenti e consensi per le loro opere e fare in modo che un giorno siano promosse a Bene della evoluzione culturale umana. Questa é comunque la nuova finalità  dell'opera nella organizzazione delle informazioni (o cibernetica) attraverso i sistemi dell'artistico: essere promossa a Bene Culturale invece di affermarsi per morire nel vecchio, obsoleto e riduttivo circuito dell'arte».[75]
g) Conclusione Quale Arte?
La prima evoluzione della macchina-automa c'é¨ stata quando si scopri l'elettricità  come energia e se ne inizio' la produzione. Si é in seguito cercato uno strumento tecnologico che permettesse il controllo e lo smistamento di tale energia e poi si é iniziato a studiare dei sistemi computazionali e di riconoscimento che permettessero una autonomia alle macchine. Oggi i dispositivi computazionali (i microprocessori) e i sensori di riconoscimento (dalle cellule fotoelettriche a quelle opticoelettriche o televisive o ai radiosensori o ai radarsensori satellitari ecc) stanno diventando circuiti essenziali delle macchine intelligenti della nuova generazione. Questi dispositivi immessi in quelli tradizionali (quali il frigorifero, la lavatrice, l'automobile, il telefono, ecc.) li trasformano dando loro sensibilità  e intelligenze autonome.
L'intelligenza artificiale dei sistemi computerizzati «alla fine del secolo e del millennio, si presenta come la nostra via di accesso, il nostro canale verso il mondo cablato, con tutte le sue meraviglie e con tutti i suoi turbamenti digitali».[76]
Essa ci sta permettendo di rinnovare gli strumenti di pensiero e ha messo in funzione un nuovo modo di collegare tutto il sapere dalla mitologia alla tecnologia, attraverso l'estetica della comunicazione.[77] Un ulteriore sviluppo si avrà  non appena avremo compreso l'operatività  del linguaggio naturale con la scoperta degli effettori degli agenti intelligenti, studiati presso l'Institute for the Future e il MIT. Una volta che la neurofisiologia e la biologia avranno scoperto come gli agenti intelligenti operano nel processo informativo, lo si potrà  tradurre facilmente in un sistema di informazione elettrica. Potremo dotarci di programmi intelligenti autonomi che in base al riconoscimento delle richieste di una persona autonomamente andranno in rete o nella memoria del computer per ricercare prelevare i dati effettivi della richiesta, anche a distanza, come se fossero agenti della persona delegati a quel tipo di funzioni, mentre ad esempio la persona potrebbe essere assorta in altre operazioni.
Ci sarebbe da chiedersi se le sorprese del futuro ce le riserveranno più i nuovi materiali o i nanoprocessori, o la robotica, o la scienza delle informazioni, o le neuroscienze, o la chimica, o la biologia, o la ingegneria genetica comprese le tecnobiologie. Sappiamo comunque che dai personoidi[78] ad oggi, in meno di vent'anni, il sentire delle macchine ha sviluppato una sensibilità  e una capacità  di operazione che si calcola in miliardi di miliardi di miliardi di bit.
L'arte é, oggi, sempre più trattata dai critici come un sistema operativo organizzato, a cui si accede attraverso l'energetica riconoscitiva di una forma, ma proprio allo stesso modo funziona il sistema che manovra una tecnologia.
Si é fermamente convinti che i prossimi interrogativi sull'arte saranno strettamente legati agli sviluppi delle macchine.
Per avvalorare questa tesi desidero qui ricordare quanto l'allora giovane e promettente ricercatore, Herber Simon, scrisse nel convegno del 1956 a Darmouth sulla AI. Egli fu colui che preconizzo' cio' che da qui a una quindicina d'anni potrà  essere in una fase avanzata di realizzazione. In quel periodo gli scienziati vedevano nel computer una macchina calcolatrice suprema, ovvero un cieco e rapidissimo computatore che tratta cifre ed é capace solo di obbedire agli esperti inventori, o conoscitori, del programma. Di lui gli informatici affermavano «spazzatura dentro e spazzatura fuori», in quanto un computer non poteva mai essere in grado di prendere alcuna iniziativa senza eseguire le istruzioni ricevute. Ma Simon oso' sfidare questi dogmi, pensando che gli studiosi di informatica avessero una visione troppo ristretta delle capacità  di un software. A quasi quarantacinque anni di distanza qualcosa é enormemente cambiato nella evoluzione dei computer e presto altro cambierà . Questo é quanto egli scrisse:
«Quest'affermazione, cioé che i computer possono fare cio' per cui sono stati programmati, é intuitivamente ovvia, indubitabilmente vera, e non contiene nessuna delle implicazioni che di solito se ne derivano.
Un essere umano puo' pensare, imparare e creare perché il programma fornitogli dal suo patrimonio biologico e i cambiamenti prodotti in quel programma dall'interazione con l'ambiente, che l'uomo ha fin dalla nascita, gli permettono di pensare, d'imparare e di creare. Se un computer potrà  un giorno svolgere queste stesse attività , lo farà  in virtù di un programma. E' chiaro che tale programma richiederà , come quello umano, un comportamento non ripetitivo né stereotipato. Avrà  invece gli strumenti per analizzare la propria attività , diagnosticare i fallimenti trarne insegnamenti per aumentare la propria efficacità».[79]
La domanda di Simon potrebbe essere cosi' esplicitata: «L'uomo da quale tecnologia é stato programmato o 'creato'?, da quali tecnologie  avanzate di costruzione o di assemblaggi di nuovi materiali é venuto?, e, ancora, la terra e l'ambiente umano é reale o virtuale?».[80] Se fosse vera questa ottica ci sarebbero alcuni interrogativi a cui da oggi dovremmo trovare risposte e che qui formuliamo per gli studiosi di scienze, d'arte, di filosofia e di tecnologia.
Nei prossimi anni parleremo ancora di arte tecnologica fatta dagli umani? O il futuro sarà  delle macchine, che, provviste di memoria biologica o di memoria robotica o di una memoria ibrida tra quella biologica e quella robotica, verranno dapprima programmate e in seguito si autoprogrammeranno, attraverso autoaggiustamenti strutturali, per produrre arte tecnologica?
Si devono iniziare a porre le prime differenze tra l'informazione e la operatività  prodotta finora da un sistema ancora umanizzato della tecnologia dell'arte e quello totalmente prodotta dalla macchina, o meglio, dall'arte della tecnologia?,[81] ¦ E poi la produzione della macchina o dell'uomo sarà  considerata ancora arte? O come sta capitando sempre più, questa produzione dovrà  essere considerata un bene ambientale e culturale? Il «sentire» del cervello-memoria dell'interfaccia uomo/macchina navigherà  in altri mediocosmi? E di questo nostro mediocosmo cosa ne faremo? Attraverseremo luoghi in cui i calcoli delle proprie mappe cognitive tracceranno miriadi di percorsi integrati / o estremi / di esperienze da cui ricavare miriadi di informazioni? E quali di queste informazioni saranno riconosciute da agenti della persona-macchina o quali dalla macchina-macchina? L'ambiente che esperiremo lo potremo ancora considerare naturale, cosi' come abbiamo considerato la «natura» fino ad oggi, o entreremo e usciremo da ambienti computati «artificialmente» che oggi chiamiamo simulati o, più comunemente, di realtà  virtuale? Questi ambienti a loro volta potranno essere considerati la forma-luogo o corpo-sito operativi, attraverso cui si manifesta quel nuovo mediocosmo tecnologico di cui si parlava all'inizio? Un giorno potremo attraversare, con gli agenti intelligenti, gli infiniti mediocosmi e poter scendere ed esperire le profondità  energetiche inifnitesimali delle organizzazioni della vita biologica fino poi a risalire nelle organizzazioni macrocosmiche dei sistemi planetari? Quale macchina (biolgica vivente o meccanica, o ibrida?) scriverà / e ci sarebbe da chiedere anche in quale lingua computazionale verrà  codificata / la Nuova Commedia del Cosmo?
L'uomo-macchina oltre che a trasferire nei circuiti di Internet le computazioni delle opere d'arte del passato come il David di Michelangelo a Firenze,[82] sta iniziando anche a produrre opere d'arte da visionare solo in Internet[83]. Forse che l'organismo biologico vivente[84] sta trasferendo in questo suo nuovo mediocosmo tutte le sue informazioni di questo «vecchio ambiente» per poi riorganizzarle e connetterle in una nuova struttura e in una nuova concatenazione/correlazione di rete neurale producendo cosi' delle nuove forme legate a dei nuovi sistemi operativi?[85]
Gli eventi che accadranno in un futuro più lontano verranno sentiti solo dalle connessioni neurali del cervello o troveremo il tempo, come organismo umano, di verificare quelle elaborazioni di informazioni anche in questo nostro ambiente?
A questo punto mi fermo perché sembra che mi sia spinto oltre i limiti consentiti dalle ipotesi scientifiche e sia già  entrato a far parte anch'io di un romanzo di fantascienza della letteratura cyber.
***
Mi sia concessa un'ultima riflessione. Dallo studio delle prime organizzazioni degli stati «inanimati» della materia nel mondo subatomico agli organismi viventi, al funzionamento del cervello (dove si dovrebbe collocare / per ora / anche la realtà  che é apparsa con le prime macchine che sentono gestite da «memoria» computerizzata, che reputo ancora a basso calcolo rispetto a quella animale e umana), a quello delle organizzazioni superiori della mente e del sistema sociale fino a convolgere l'intero «Universo » di Popper, si rinvengono in modo progressivo verso l'alto le forme di organizzazione e complessità . In questa progressione la mente umana e la società  possono rappresentare solo uno stadio intermedio sul cammino del progresso organizzativo del cosmo. Ecco perché, per ricondurci all'inizio del nostro excursus, lo scopo teleologico dell'azione diventa oggi importante. Esso ci svela verso quali equilibri organizzativi é diretta l'azione. Il futuro sarà  quello di costruire mondi e macchine funzionanti con maggiore elaborazione di calcoli che tenegano conto di mediare con le leggi dei vari livelli di complessità . Dovremmo a questo aggiungere che vi é un interscambio tra mondo subatomico, quello degli oggetti fisici, il mondo della mente, dell'organizzazione sociale e dell'informazione.
Una testimonianza evidente é il raggio laser, che senza la scoperta della meccanica quantistica non potà essere costruito e, la sua luce artificiale, oggi, viene utilizzata in parecchie macchine neotecnologiche di uso comune.[86]
Non a caso molti prodotti dell'Universo  stanno diventando sempre più elaborati e complessi e si pensa che presto potremo attraversare una nuova soglia di complessità  che porta ad un livello ancora più elevato di organizzazione dotato di nuove leggi (basti pensare a come calcolare la possibile interazione e organizzazione uomo-ambiente che coinvolge un ecosistema di informazioni cosi' complesso quale é la terra inteso come organismo biologico vivente¦ e a quali altri studi potrebbe indirizzare). Oppure potrebbe emergere un'attività  collettiva di natura astratta che oggi possiamo a mala pena immaginare, o che non siamo ancora in grado di concepire. In qualche parte dell'universo, o anche in qualche oscuro laboratorio del nostro pianeta, questa soglia potrebbe essere già  stata attraversata e noi invece non ce ne rendiamo ancora conto.
Internet é la prima dimostrazione di come una organizzazione di un mondo immateriale diventa operativo anche nelle relazioni materiali. Il computer, le nuove tecnologie e i nuovi materiali ci danno strumenti-protesi che ci dischiudono a mondi di organizzazione e di calcoli superiori fino a quando non troveremo altre «protesi», ed altri strumenti per svelare altri mondi organizzati e operativi.
La macchina che sente ci svela un mondo teoretico che i filosofi contemporanei non hanno ancora esplorato, vi sono qua e là solo dei pionieri, credo ancora per poco inascoltati.
Uno dei problemi centrali di questo nuovo universo filosofico ce lo ha descritto attraverso la fisica John Wheeler che si chiedeva come sia possibile «che una pura informazione (cioé il software) possa in certi casi modificare lo stato reale di un oggetto macroscopico (l'hardware)?».[87]
Domanda che coinvolge da una parte l'organizzazione della vita a livelli macroscopici / si pensi ad esempio l'insinuarsi di un pensiero ossessivo o al manifestarsi di un evento insignificante per gli altri, ma che modificano entrambi l'intero progetto o costruzione di vita futura di un uomo. Legittimo é chiedersi a questo punto, in base alla propria organizzazione, quale é la soglia oltre la quale un soggetto fisico é indotto a modificare le proprio riflessioni filosofico-speculative e le proprie risposte al mondo; nonché in che modo si é indotti ad indagare, simulativamente, cio' che potrebbe accadere in una differente, e sempre probabile, impostazione della interpretazione della vita; e infine come si rilevano i possibili diversi atteggiamenti quotidiani che si assumono.
La risposta é unica: si registra il cambiamento di atteggiamento allo stesso modo di come si conducono gli sperimenti nella fisica subatomica o nella costruzione delle macchine attraverso il principio di retrocausalità _  un principio di analisi analogo poteva essere quello dell'indagine psicoanalitica, ma anche questa andrebbe aggiornata in quanto gli studi recenti sul cervello e la mente portano ad una organizzazione neuronale del simbolico.[88]
Un simbolo appare sempre in connessione ad una configurazione operativa di significati.
Partendo dai principi di Bohr Wheeler si rinviene che una misura ha bisogno di una sorta di amplificazione irreversibile che si traduce in una registrazione o in una traccia. A cio' deve aggiungersi, per Wheeler, che una misura ha luogo solo quando esiste una registrazione significativa: ovvero c'é uno strumento che lo ha rilevato e registrato. Ritorniamo cosi' ad una nozione alquanto astratta di una «comunità  di investigatori» che sono interessati a registrare le variazioni dell'impulso di un contatore geiger in quanto lo spostamento dell'indicatore significa qualcosa. Wheleer segna un percorso di causalità  o azione. Egli nota come dalle particelle elementari, attraverso le molecole e la organizzazione degli oggetti macroscopici si giunge fino agli esseri comunicatori e «coscienti», e alle loro affermazioni significative fino ad esortarci  «ad abbandonare come fondamento dell'esistenza, una fisica hardware situata "là  fuori" e a mettere invece al suo posto un significato software».[89] Wheleer ci vuole rendere palese come il significato o informazione, o software  viene elevato ad una funzione primaria, mentre le particelle della materia diventano secondarie. A questo punto il fisico afferma che «la fisica é figlia del significato anche se il significato é figlio della fisica».[90]
Il significato é importante se genera delle reazioni nel mondo fisico delle particelle elementari. Egli considera questo evento come «il ritorno del circuito».
Bisogna anche ricordare, cosa che Wheleer in questo articolo non fa palesemente ma che a mio giudizio sottende, che il ritorno del circuito é rispetto a quell'osservatore a quegli strumenti di osservazione e a cio' che si ricerca; mentre se é ancora enigmatica la ricerca e le aspettative di reazione nella causalità  verso il basso, é ancora più oscura la ricerca che va «verso l'alto». La scienza attuale non conosce a fondo i dettagli delle causalità  verso il basso, salvo che per un aspetto quello degli strumenti e di cio' che si vuole ricercare ecco perché si ha bisogno del ritorno del circuito (una sorta di retroazione come abbiamo visto che avviene nella macchina). Infatti il corso della causalità  verso l'alto si muove in avanti rispetto al tempo: ovvero l'atomo decade, viene emessa una particella, il contatore scatta, lo sperimentatore legge l'indice dello strumento¦[91] Il ritorno del circuito, si manifesta cosi' a ritroso nel tempo. Wheeler illustra cio' con un nuovo esperimento che é stato chiamato esperimento di scelta ritardata, che pone una sorta di retrocausalità .
Il doppio mondo quello degli oggetti fisici che divengono e sono sistemi operativi complessi e quello delle teorie scientifiche, richiama alla mente la filosofia di Prigogine sulla irreversibilità riscontrabile in tutte le interpretazioni di una misura quantistica, per cui i fenomeni irreversibili sono primari  /cioé i fenomeni del divenire sono di natura primaria /, mentre i processi reversibili sono approssimazione o idealizzazioni di natura secondaria /i fenomeni espressi dalla filosofia dell'essere /.
Far diventare reversibile il principio su cui si fonda l'Essere pone un mutamento sostanziale sull'intera speculazione filosofica, rimane pero' il sistema operativo-cognitivo che produce informazioni sull'organizzazione di quell'uomo (o meglio, di quell'organismo vivente umano) e sul suo sistema operativo. Ecco come Erwin Schrodinger, uno dei padri fondatori della fisica quantistica, scrive nel suo libro What is the life?: «Un organismo ha una stupefacente capacità  di concentrare in se stesso un 'flusso d'ordine', evitando di decadere  nel caos degli atomi — la capacità  di “bere ordine” da un ambiente adatto».[92]
Ancora una volta la fisica si propone di non contraddire le leggi fondamentali della vita, e di comprenderne solo il funzionamento. La frase di Schrödinger Schrodinger significa, contraddicendo la comune opinione secondo la quale gli esseri viventi consumano energia, che l'energia non si crea né si distrugge, ma si conserva. Paul Davies cosi' commenta «Quando una persona metabolizza del cibo, nel suo corpo si libera dell'energia che quindi si dissipa nell'ambiente sotto forma di calore o di lavoro svolto mediante l'attività  fisica. L'energia totale racchiusa nel corpo della persona rimane più o meno immutata: il corpo é invece attraversato da un flusso d'energia grazie all'ordine, o entropia negativa, creata dall'energia consumata. L'elemento essenziale che garantisce la vita é dunque l'entropia negativa».[93]
Affermare che il mondo futuro guarderà  sempre più all'uomo come sistema operativo autorganizzantesi i cui fondamenti di sopravvivenza si trovano nell'organizzazione e nell'informazione e nel suo aggiustamento strutturale con l'ambiente é un fatto acclarato.
Non a caso si crede oggi che la materia «imbocca oggi due strade diametralmente opposte: una quella della vita, che si evolve verso stati sempre più ordinati; l'altra, quella inanimata, che cade in un disordine crescente sotto la spinta della seconda legge della termodinamica. Eppure in entrambi i casi gli elementi componenti / vale a dire gli atomi / sono sempre gli stessi».[94]
In effetti cio' che vive é l'ordine. Il paradosso odierno della vita pero' puo' essere cosi' espresso. Man mano che si evolvono i sistemi biologici la vita si manifesta con una maggiore organizzazione; dall'altra parte, peo', la seconda legge fisica della termodinamica, che sovrintende proprio ai mutamenti dell'ordine, ci ha dimostrato che il nostro universo in espansione stabilisce un costante aumento del disordine. Come cio' é possibile? Il compromesso tra fisica e biologia é per ora risolto in questo modo. Se in alcuni settori o specie viventi si manifesta maggiore ordine viene prodotta anche maggiore entropia che si riversa su altri settori.
Ruolo importante assume in questo caso la organizzazione ed il sistema per conservare l'ordine. Nella conservazione dell'ordine é conservato in biologia il segreto della vita. La vita non é più riscontrabile negli atomi che compongono la cellula vivente, ma in che modo questi atomi sono organizzati, ovvero quale informazione é codificata nelle strutture molecolari e quali sono le sequenze genetiche. La forza vitale un distinguo filosofico importante nel secolo scorso diventa «superfluo» di fronte alla organizzazione della informazione: «Una volta che si é resi conto dell'esistenza dei fenomeni per cosi' dire collettivi, il concetto di forza vitale diviene superfluo. Non occorre più che gli atomi siano 'animati' affinché conferiscano alla materia proprietà  della vita: basta che siano organizzati in un certo modo, per quanto complesso possa essere».[95]
Da questa ottica una clonazione di vivente o di un automa-robot che automodifica il suo sistema percettivo e si avvale di molteplici e sempre più complessi sistemi di riconoscimento é da considerarsi vivente oppure no?
E' questo un problema solo estetico o anche etico? Se un automa prodotto dall'uomo sente, quando organizza il suo sentire, cio' che percepisce lo avverte al pari di un essere biologico vivente? La mitologia non dice molto sull'argomento.
Le indicazioni generali sono le seguenti: Gli automi, nonostante che affrancassero gli uomini dalla schiavitù del lavoro, in mano agli umani sono divenuti per sempre causa di danno, ma in mano agli dei erano un piacevole intrattenimento.
 

 
NOTE
* Inteso qui proprio come una sensorialità  percettivo-cognitiva.
[1] La scienza cibernetica in generale si interessa dell'uomo con i suoi congegni meccanici. Platone lo ha indicato nella Repubblica con il termine kubernhtikhv, che significa pilota o timoniere. Va notato comunque che la parola inglese governor (meccanismo regolatore) é soltanto la forma latinizzata di quel termine greco che significa timoniere. La cibernetica, pertanto, si interessa di messaggi e di strumenti di comunicazione. Essa studia i messaggi in relazione ai mezzi di comunicazione che si instaurano ricorsivamente, o si costruiscono, o intercorrono, per evoluzione, tra uomini, tra uomini e animali, tra uomini e macchine e nel futuro tra macchine e macchine. Cfr. norbert Wiener, La Cibernetica, Milano, Bompiani, 1953.
[2] Gli scienziati e studiosi delle neuroscienze e delle scienze cognitive, a partire dalla scienza cibernetica, hanno giudicato come centrale la conoscenza del funzionamento del cervello, anche per i cambiamenti biologici e per la evoluzione. Da una parte la ricerca si é volta a comprendere come si é evoluto biologicamente il cervello nel suo sviluppo filogenetico fino alla attuale complessità  di struttura, dall'altra sta tentando di comprendere come durante questo processo evolutivo, che é durato un tempo filogenetico lungo miliardi di anni, il cervello incorpora ed organizza informazioni sul mondo. Queste indagini hanno indotto gli scienziati a credere che il cervello si é evoluto ed ha automodificato la propria struttura fisico-biologica durante tutto il processo evolutivo. Bisogna anche tenere presente, se si desidera meglio comprendere queste modificazioni fisico-biologico-operative, che il concetto di struttura é sinonimo di quello di informazione. Il cervello di un neonato é il prodotto evolutivo di elaborate informazioni, sia di cervelli a lui simili sia di cervelli che sono scomparsi. Questi atteggiamenti vengono chiamati strutture congenite. In conclusione il cervello é il prodotto finale di due processi quello filogenetico e quello dello sviluppo individuale. Il processo filogenetico ci é ancora quasi del tutto oscuro, pur pensando che la teoria darwinista possa essere giusta, ma i particolari e le tappe di questa evoluzione non é possibile rintracciarle né in modelli di strutture biologiche né ricostruirle attraverso le varie fasi o tappe, allora si va per ipotesi simulative fantascientifiche. Gli studi attuali sul cervello sono indirizzati quasi tutti sulle modificazioni del cervello individuale e sulle esperienze del cervello nel suo sviluppo dall'embrione alla morte. Importanti diventano gli studi sulla trasmissione biologica delle informazioni e la permanenza e la organizzazione delle informazioni in un nascituro. Quanto fin qui illustrato é importante per comprendere come si configura e si progetta oggi un robot con caratteristiche biologiche e quali potrebbero essere gli sviluppi futuri della scienza bio-robotica.
[3] Francesco Piselli nelle sue pagine su l'Estetica Biblica riflette come nel passato venivano percepiti i tropi. Essi pur stando al posto di, sono modi di manifestarsi e sono finalizzati a conservare equilibri naturali; infatti, seppure siano emblemi di sostanza metaforica e di derivazione contemplativa mistico-alchemica in quelli la fuvsi" si presenta come organizzazione visibile, tangibile e sperimentabile nel qui ed ora del progetto metafisico. Il tropo, cioé, non é un rappresentare della mente ma un apparire organizzato già  presente nella forma che si manifesta al suo nascere: E' l'apparire della forma nella volontà  organizzativa della sostanza. Si veda specie Occasioni di estetica biblica, di F. Piselli, Pagine di estetica, Edisud, 1989, ripresa nella nuova edizione «variata, ritoccata e innovata» nel capitolo Spunti di estetica biblica, sta in Suono lontano, Milano, Vita e Pensiero, 1994, pp. 51-86. Importante ed attuale poi, di questo autore, é anche lo studio del rapporto Corpo-estetica-cosmologia e l'analogia tra scienza antica e moderna. A tal proposito si vedano principalmente i saggi Physica, e Dal cerchio al cerchio, in F. Piselli, Scenari di estetica e cosmologia, Milano, Vita e Pensiero, 1995, pp. 38-45 e 45-54. Specie da quest'ultimo studio, avendo avuto tra le mani i suoi lavori prima della pubblicazione fin dal 1991, sono stato indotto a meglio approfondire e sviluppare alcune argomentazioni di ordine logico, linguistico, psicologico, biologico e matematico in relazione all'estetica ed alla filosofia.
Da questa impostazione estetico-filosofica, che almeno tiene conto di alcuni recenti eventi verificatisi nella scienza e che hanno modificato il pensiero, si puo' passare alla nascita della vita e della informazione nel mondo secondo la scienza chimico-genetica. «L'ordine fisico ignoro' l'irreversibilità  del tempo fino al secondo principio della termodinamica. L'ordine cosmico ignoro' l'irreversibilità  del tempo fino al 1965, data in cui l'universo entro' a far parte del divenire. Fu cosi' liquidata l'eternità  delle Leggi della Natura Non c'é¨ più una physis congelata. Tutto é nato, tutto é apparso, tutto é sorto, un tempo. La materia ha una storia» [Cfr. Edgard Morin, Il Metodo, Milano, Feltrinelli, 1987, p. 111].
Non ci dilungheremo su come i semi della vita presero forma nello spazio e nell'atmosfera terrestre, secondo la scienza attuale, le cui combinazioni principali furono quelle del carbonio, dell'azoto, dell'idrogeno, dell'ossigeno a cui di recente é stato aggiunto lo zolfo e che «Sotto l'influenza di scariche elettriche, radiazioni ed altre sorgenti di energia, gli atomi presenti in tali combinazioni furono rimescolati, producendo amminoacidi e altri mattoni biologici fondamentali. Portati al suolo dalle piogge e da comete e meteoriti, i prodotti di tali ricombinazioni chimiche formarono una coltre organica sulla superficie priva di vita del giovane pianeta». [C. de Duve, Polvere vitale, Milano, Longanesi, 1995, pp. 48-9]. Quello che a noi interessa é come il mondo dell'informazione abbia acquisito organismi cosi' complessi e in che modo si trasmettono e si organizzano le informazioni, nella fisica del mondo chimico sia negli organismi complessi che in quelli semplici e come le informazioni passano dall'uno all'altro organismo. Oggi per quanto riguarda la genesi biologica si pensa che dapprima vi é stata la costituzione degli amminoacidi, che sono i prodotti più visibili della chimica abiotica sia sulla Terra che nello spazio. Si sono poi formate le prime proteine / di cui gli amminoacidi sono componenti / ma sulla centralità  delle proteine nella costituzione degli organismi biologici vi é già  una discussione aperta. La maggioranza degli studiosi sostiene che prima delle proteine si é assistito allo svilupparsi dell'acido ribonucleico (RNA), per cui le molecole di RNA forniscono sia il meccanismo catalitico che quello di informazione. Le recenti ricerche tendono a porre la nascita dell'RNA prima delle proteine, rifacendosi al 'dogma centrale' di Francis Harry Compton Crik, coscopritore nel 1953 insieme a James Dewey Watson del DNA (acido desossiribonucleico), il quale postula che «l'informazione procede solo dagli acidi nucleici alle proteine, e mai in direzione opposta» [Sta in B. Alberts, D. Bray, J. Lewis, M. Raff, K. Roberts e J. D. Watson, Biologia molecolare della cellula, Bologna, Zanichelli, 1995]. Non a caso ci ricorda Christian de Duve, l'importanza dell'RNA fu successiva, quando si iniziarono a notare alcune proprietà  dell'acido che erano quelle dell'informazione. «Il DNA é il materiale che forma i nostri geni e, per questa ragione, merita la sua posizione preminente nel simbolismo della vita. La sua funzione é pero' strettamente limitata alla memorizzazione di informazione genetica (e alla replicazione di tale informazione quando una cellula si divide, cosicché ogni cellula figlia ne possiede una copia). Quando si passa alla espressione della informazione, il DNA viene invariabilmente trascritto in RNA. La trascrizione non é molto diversa dalla replicazione in quanto l'RNA é chimicamente simile al DNA ed é costruito, tranne che per una singola particolare differenza, con le stesse quattro basi. L'RNA é una molecola più versatile del DNA. Esso puo' presentare attività  catalitiche, come nei ribozimi, ed esprimere in tal modo nell'esecuzione di reazioni chimiche l'informazione ricevuta dal DNA trascritto. Fra queste reazioni alcune modificano le molecole di RNA e / all'interno di una struttura cellulare complessa, chiamata ribosoma, composta da RNA e da molecole proteiche / influiscono sull'assemblaggio di amminoacidi a formare proteine, un processo di primaria importanza in tutti gli esseri viventi» C. de Duve, Polvere vitale, op. cit., p. 102. Ma c'é ancora di più. I geni dell'RNA, a cui si richiede la funzione di essere replicabili, assolvono ad un compito di traduzione di cio' che é trascritto nel DNA e diventano di vitale importanza per la specie; anzi il DNA, da questa ottica, quale trascrizione genetica, potrebbe anche estinguersi, ma la perdita più grave sarebbe l'estinzione di quella forma di traduzione contenuta nella informazione veicolata dall'RNA. «Tali RNA funzionali esprimono solo un piccolo numero di geni del DNA. La maggior parte dei geni specificano proteine, le quali attraverso le loro funzioni strutturali, regolative e specialmente catalitiche (enzimi), sono gli agenti principali dell'espressione fenotipica. Le cellule, in generale, e gli organismi che esse servono a costruire, sono l'espressione delle loro proteine. Le sequenze degli amminoacidi nelle proteine sono codificate dalle sequenze dei nucleoditi nei geni del DNA, anche se non direttamente, attraverso le trascrizioni dell'RNA, che sono i 'messaggeri' dell'informazione in questo processo. Poiché le proteine sono costruite con un 'alfabeto' di venti amminoacidi, di contro all'alfabeto di soli quattro nucleotidi dell'RNA (o del DNA), il trasferimento di informazione dall'RNA alle proteine viene chiamato traduzione. L'insieme delle equivalenze che governano la traduzione forma il codice genetico». Ibidem. Gli agenti della informazione-trasmissione genetica sono, pertanto, il DNA, che detiene selezione e modifica il codice nella sua evoluzione, l'RNA che é il traduttore e che é compresente negli organismi complessi, e poi le proteine che sono i ricettori azionanti le informazioni organizzate. La rete dell'informazione genetica dell'RNA del DNA e delle proteine configurata é cosi' formulata: DNA fi RNA fi PROTEINE, dove fi significa implica o causa il passaggio a.
Se «l'informazione si insinuo' nei processi chimici, e non genero' i processi chimici», dovremmo da questa congettura apprendere che una materia intelligente, diventa tale quando si insinua e poi si costituisce un processo di informazione. A me sembra che proprio in questo modo sono costituiti i frames (agenti intelligenti) che organizzano le informazioni secondo la psicologia della molteplicità degli Io di Marvin Minsky. [A tal proposito M. Minsky, La società  della mente, Milano, Adelphi, 1989]. Da questa ottica sembra che l'intelligenza nasca a livello proteico dalla organizzazione e dalla trasmissione o replicazione delle informazioni dell'RNA, fino alla costituzione di azioni utili alla sopravvivenza negli ambienti, secondo la selezione darwinista e la coevoluzione tra l'organizzazione biologica vivente e l'organizzazione dell'ambiente.
L'Intelligenza Artificiale, al pari dei principi biologici, postula l'esistenza di 'agenti intelligenti' o 'homuncoli' o 'folletti' organizzati in moduli. Questi, autonomamente e automaticamente, si rendono operativi nel momento in cui fanno scattare dei servo-meccanismi rivelatori di differenze, che riproducono, nonostante che i propri moduli siano ancora semplici, quanto avviene nel cervello per determinare le funzioni. Il filosofo Daniel C. Dennett ci soccorre nell'indicare una soluzione tra le numerose teorie del genere: «Chiamare homuncoli (o folletti o agenti) le unità  di queste teorie molto differenti non é più informativo che chiamarle semplicemente¦ unità . Sono solamente unità  con competenze particolari e circoscritte, ed ogni teoria, dalla più rigorosamente neuroanatomica alla più astrattamente artificiale, non fa altro che postulare tali unità  per poi descrivere come possano essere ottenute delle funzioni più complesse organizzando le unità  che eseguono le funzioni più semplici. In effetti tutte le varietà  di funzionalismo possono essere considerate come funzionalismo 'omuncolare' in un modo o nell'altro». Daniel C. Dennett, Coscienza, Milano, Rizzoli, 1993, p. 293.
Da quanto fin qui illustrato si deduce che il tempo biologico, o dell'evoluzione, é cosi', uno dei due tempi principali che fondano la nuova physis, l'altro é quello termodinamico della fisica contemporanea. Da una parte la materia ha una storia con un suo progresso e ascensione, quello della physis biologica e, dall'altra c'é un tempo cosmologico, che per il secondo principio di termodinamica si muove da uno stadio di calore massimo primordiale della materia verso l'espansione e poi la morte, o freddo termico, della organizzazione cosmica. Questi due tempi della physis ci viene descritta da Morin in questo modo «Ora possiamo infine spezzare lo schizoidismo intercorrente tra questi due tempi che si ignorano e si sfuggono reciprocamente. Essi sono nello stesso tempo uno, complementari, concorrenti e antagonisti: posseggono un tronco comune, sono in rapporti di simbiosi, di reciproco parassitismo, e lottano a morte¦ A questo tempo che é già  molto complesso, ci occorrerà  integrare , quando esamineremo il problema dell'organizzazione, il tempo delle reiterazioni, delle ripetizioni, degli anelli, dei cicli, delle riprese, e vedremo come questi tempi ripetitivi sono alimentati e contaminati dal tempo irreversibile , allo stesso modo in cui sono perturbati dal tempo insieme di eventi: il loro movimento é sempre a forma di spirale e sempre soggetto al rischio di rottura¦ Il grande tempo del Divenire é sincretico (E' questo cio' che le grandi filosofie del divenire avevano ignorato, a partire da quella più grande, quella di Hegel). Esso mischia in sé, in maniera diversa, questi diversi tempi nei suoi flussi e nei suoi grovigli, con isole temporanee di immobilizzazione (cristallizzazione) dei vortici e cicli di tempi reiterativi. La complessità  del tempo reale sta in questo ricco sincretismo. Tutti questi diversi tempi sono presenti, agiscono ed interferiscono nell'essere vivente e beninteso nell'uomo: ogni vivente, ogni uomo porta in sé il tempo dell'evento/accidente/catastrofe (la nascita, la morte), il tempo della disintegrazione (la senescenza che, attraverso la morte, conduce alla disintegrazione), il tempo dello sviluppo organizzativo (l'ontogenesi dell'individuo) il tempo della reiterazione (la ripetizione quotidiana, stagionale, dei cicli, dei ritmi e delle attività ), il tempo della stabilizzazione (omeostasi). In maniera raffinata, il tempo catastrofico e il tempo della disintegrazione vengono a far parte del ciclo reiterativo, ordinato/organizzatore (le nascite e le morti sono costitutive del ciclo di ripresa di riproduzione). E tutti questi tempi entrano a far parte della emorragia irreversibile del cosmo. Cosi', sin dall'inizio, il nuovo universo fa sorgere non soltanto il tempo irreversibile, ma il tempo complesso». Edgard Morin, Il Metodo, op. cit., pp. 111-2.
[4] Fino a qualche tempo fa gli «scienziati» non leggevano opere umanistiche e gli «umanisti» si precludevano ogni forma di bellezza matematica. Solo quando il concetto di instabilità  é entrato nella matematica essa ha prodotto un rinnovato interesse per gli umanisti. L'introdurre il tempo come forma di congiunzione tra queste due culture, quella umanistica e quella matematica, ha prodotto un progresso immenso. Il tempo, in effetti, é la nostra dimensione esistenziale cardine, in quanto attraverso di esso si dispiega la creatività  degli artisti, dei filosofi e degli scienziati. Solo quando il tempo é entrato a far parte della scienza cosiddetta «classica» che questo avvicinamento é stato possibile. Si é introdotto il concetto della freccia del tempo, attraverso cui si ipotizza che il tempo crea strutture e che induce molti scienziati ad ipotizzare contemporaneamente oltre alla irreversibilità  anche la complessità  del tempo stesso. Questa evoluzione della scienza basata sulla irreversibilità -complessità  del tempo, conosciuta anche come paradosso del tempo, si é avuta in base a due sviluppi. Il primo ottenuto con la scoperta delle strutture di non-equilibrio, dette anche «dissipative», ed il secondo é stato legato alla nuova evoluzione della dinamica classica, che induce a riflettere sugli sviluppi imprevedibili della scienza. Questi passaggi si ottengono in base ad una analisi evolutiva della succesione degli eventi caratterizzanti i sistemi dinamici instabili: instabilità  ï¬ caos fi probabilità  ï¬ irreversibilità . Centrare il discorso sugli «operatori di evoluzione» ci permette di unificare in fisica la dinamica e la termodinamica «Cominciamo ad afferrare meglio la lezione del secondo principio di termodinamica. Perché esiste l'entropia? Prima spesso si ammetteva che l'entropia non era altro che l'espressione di una fenomenologia di approssimazioni supplementari che introduciamo nella legge della dinamica. Oggi sappiamo che la legge di sviluppo dell'entropia e la fisica di non-equilibrio ci insegnano qualcosa di fondamentale circa la struttura dell'universo: l'irreversibilità  diventa un elemento essenziale per la nostra descrizione dell'universo, quindi deve trovare la sua espressione nelle leggi fondamentali della dinamica. La condizione essenziale é che la descrizione microscopica dell'universo si faccia tramite dei sistemi dinamici instabili. Ecco un radicale cambiamento del punto di vista: per la visione classica i sistemi stabili erano la regola e i sistemi instabili delle eccezioni, mentre oggi capovolgiamo la prospettiva. Una volta ottenuta l'irreversibilità  e la freccia del tempo, possiamo studiare tale freccia su altre rotture di simmetrie e sul contemporaneo emerge dell'ordine e del disordine a livello macroscopico. Comunque in entrambi i casi é dal caos che emergono allo stesso tempo ordine e disordine. Se la descrizione fondamentale si facesse con leggi dinamiche stabili, non avremmo entropia, ma quindi neppure coerenza dovuta al non-equilibrio, né alcuna possibilità  di parlare di strutture biologiche e pertanto un universo da cui l'uomo sarebbe escluso. L'instabilità , ovvero il caos, ha cosi' due funzioni fondamentali: da un lato l'unificazione delle descrizioni microscopiche e macroscopiche della natura, attuabile solo tramite una modificazione della descrizione microscopica; dall'altro la formulazione di una teoria quantistica, direttamente basata sulla nozione di probabilità , che evita il dualismo della teoria quantistica ortodossa, ma che, a un livello ancor più generale, ci induce cosi' a modificare quelle che tradizionalmente chiamavamo 'leggi della natura'». Ilya Prigogine, Le leggi del caos, Roma-Bari, Editori, Laterza, 1993, pp. 79-80. [Basato su questo principio, e in chiave romanzata, si veda il racconto quasi profetico di Isaac Asimov, L'ultima domanda, sta in Tutti i racconti, Milano, Mondadori, 1991, vol. I, pp; 339-51. Il protagonista é un mega-computer che é direttamente legato allo spazio-tempo a cui é stata posta una domanda da un popolo tecnologicamente avanzato e cioé se fosse stato possibile superare il secondo principio della termodinamica. Questo da generazione in generazione da civiltà  in civiltà  replica costantemente «dati insufficienti per una risposta significativa» fino a quando dopo la morte dell'universo il computer ottiene la risposta e ne nasce un nuovo mondo].
Il rapporto tra le due culture che richiamavano il dualismo sia della struttura che dell'ambiente é stato espresso nella scienza classica da Cartesio. In una delle Risposte alle terze obbiezioni, ovvero quella alla seconda obbiezione, e precisamente quella relativa alla seconda meditazione intitolata Della natura dello spirito umano, egli replica a Hobbes col distinguere due sostanze, il corpo e lo spirito, che derivano dagli atti e dagli accidenti che sono di loro proprietà : «Vi sono certi atti, che chiamiamo corporei, come la grandezza, la figura, il movimento, e tutte le altre cose che non possono essere concepite senza un'estensione locale, e noi chiamiamo col nome di corpo la sostanza nella quale risiendono; […] tutti questi atti convengono fra di loro, in quanto presuppongono l'estensione. In appresso, vi sono altri atti che noi chiamiamo intellettuali, come intendere, volere, immaginare, sentire, ecc., i quali tutti convengono fra loro in questo, che non possono essere senza pensiero o percezione, o coscienza e conoscenza; e la sostanza nella quale essi risiedono, noi diciamo che é una cosa che pensa, o uno spirito […]; il pensiero, che é la ragione comune nella quale essi convengono, differisce totalmente dall'estensione, che é la ragione comune degli altri» [Cartesio, Obbiezioni e risposte [1641]. Terze obbiezioni, sta in Opere filosofiche, vol. II, Laterza, Roma-Bari, 19902, vol. II, pp. 166 e segg.] Ma ecco cio' che ci dice Prigogine su questa opera: «In quest'opera Cartesio descrive l'evidente contrasto tra i primi oggetti della scienza e la fisica che allora sorgeva (come per esempio il pendolo e il sasso che cade) e gli atti intellettuali. La materia é associata all'estensione, insomma a una geometria. E' noto che cio' costrui' l'idea centrale dell'opera di Einstein, ovvero l'idea di accedere a una descrizione geometrica della fisica. Al contrario gli atti intellettuali sono associati al pensiero e il pensiero é indissociabile dalla distinzione tra 'passato' e 'futuro', quindi dalla freccia del tempo. Il paradosso del tempo esprime una forma del dualismo cartesiano. Recentemente é stato pubblicato un libro molto interessante di un eminente fisico matematico inglese, Roger Penrose, dal titolo La nuova mente dell'imperatore. In esso leggiamo l'affermazione secondo la quale sarebbe “la nostra attuale mancanza di comprensioni delle leggi fondamentali della fisica a impedirci di comprendere il concetto di 'mente' in termini fisici o logici». Ilya Prigogine, Le leggi del caos, op. cit., pp. 81-2.
[5] Il filosofo Hubert Dreyfus afferma che «Si potrebbe a ragione far cominciare la storia dell'intelligenza artificiale intorno al 450 a.C.» [L'Eutifrone descrive gli eventi poco prima del processo di Socrate nel 399 a. C., Dreyfus si é chiaramente confuso nel collocarlo 51 anni prima (G.S.)] quando Platone riferisce un dialogo nel quale Socrate chiede a Eutifrone «Voglio sapere cos'é caratteristico della pietà  che rende tutte le azioni pie ¦ in modo che possa averla per cominciare a lavorare e per usarlo come modello con cui giudicare le tue azioni e quelle degli altri uomini». [Nella traduzione del passo vi sono altre edizioni che utilizzano 'virtù/virtuoso invece di pietà/pio]. H. Dreyfus, What Computers Canât do: The limits of Artificial Intelligence, (Revised edizione), New York, Harper and Row, 1979, p. 67. Socrate, in effetti, voleva conoscere da Eutifrone un algoritmo che gli permettesse di distinguere la pietà  dalla non pietà . Aristotele formulo' le leggi che regolavano la parte razionale della mente. Egli sviluppo un sistema di informazione basato sui sillogismi, in modo che postulati dei principi generali, meccanicamente, si giungeva a delle conclusioni. Aristotele, inoltre, non reputava che tutte le parti della mente fossero strutturate su processi logici, poiché aveva formulato anche la nozione di ragione intuitiva. Con Cartesio (1596-1650) si inizio' a considerare la mente come un sistema fisico. Nonostante che fosse un grande sostenitore del ragionamento egli propose un dualismo, ovvero, oltre alla parte della mente che obbedisce alle leggi della natura, vi é un'altra mente, che é al di fuori della natura e non obbedisce a leggi fisiche e questa é l'anima. Un'alternativa al dualismo é il materialismo-mentalismo, seppure spirituale, di Leibniz. Egli sosteneva che tutto il mondo compreso la mente ed il cervello operano secondo una legge della fisica. Wilhelm Leibniz (1646-1716)é¨ oggi in auge tra i sostenitori dell'intelligenza artificiale per essere stato il primo ad aver portato il combinatorio atomistico di Democrito ad una conclusione logica e a costruire un meccanismo automatico di pensiero, nonostante i forvianti 'possibili', per eseguire operazioni mentali. L'apparato logico, cosi'come strutturato da questo autore, valeva per operazioni semplici ma non funzionava su calcoli complessi. Per ricostruire i passi di una filosofia delle operazioni mentali e dei meccanismi della mente, dopo aver stabilito che la mente fosse un apparato fisio-logico, abbiamo bisogno di comprendere come si costruisce il ragionamento attraverso le conoscenze che in quella mente sono contenute e che tipo di rapporto si instaura tra esperienza e conoscenza. L'indagine sulla individuazione della origine e sulla definizione della conoscenza era iniziata nel mondo moderno con il Novum Organon di Francesco Bacone (1561-1626). L'empirismo si divulgo' e pose le sue basi, trovando la sua massima espressione nella celeberrima affermazione di John Looke (1632-1704) «non c'é nulla nella comprensione che non sia prima nei sensi». Con questa affermazione si divulgo', anche nel processo scientifico, oltre che nei meccanismi logici, il principio di induzione, dove alcune regole generali vengono ricavate dalla osservazione di alcune frequenze che si ripetono nei rapporti tra gli elementi osservati. Dopo quasi due secoli fu Bertrand Russell (1872- 1970) con il positivismo logico che diede un formalismo più accentuato a queste teorie. L'intenzione di Russell era quella di escludere dal ragionamento gran parte della metafisica. Il suo sistema della conoscenza é caratterizzato da teorie logiche, che possono essere verificate o falsificate analizzando il significato delle parole oppure facendo esperimenti, collegate a frasi di osservazione che trovano la propria corrispondenza negli stimoli sensoriali. La teoria della conferma impostata da Rudolf Carnap (1891-1970) attraverso la sintassi logica, trova il suo impianto sulle relazioni linguistiche e sulle osservazioni delle esperienze. Questa teoria, poi sviluppata da Carl Hempel (1905-1989), ebbe il compito di mostrare come le teorie della conoscenza nascono sulla base di esperienze e verifiche di esse, inducendo a modificare vecchie convinzioni e ad acquisire con nuove teorie i metodi empirici osservati e verificati con l'esperienza. Karl Popper (1902-1995) con la sua posizione euristica del principio di transizione secondo cui «cio' che é vero in logica é vero anche in psicologia» [cfr. Conoscenza oggettiva. Un punto di vista evoluzionistico, Roma, 1975, p. 24,] afferma che la conoscenza non ha fonti prime o «originarie», anzi l'errore di fondo di questa impostazione «consiste nel fatto che essa non distingue con sufficiente chiarezza tra questione di origine e questione di validità» [cfr. Congetture e confutazioni, Bologna, il Mulino, 1972, p. 48]. L'idea di Popper é che la conoscenza umana non é fondata sull'episteme, ovvero sapere certo, ma sulla doxa, sapere congetturale e che noi non siamo possessori della verità , ma ricercatori di verità) . Da questa ottica Popper vede quasi tutte le filosofie finora formulate come filosofie giustificazioniste. Egli nota inoltre che «la scienza naturale  non é scientia o episteme; non comunque perché sia una tecne, ma perché appartiene al dominio della doxa» [Congetture e confutazioni, op. cit., p. 642] Quanto affermato comporta che un termine ha significato solo se designa una percezione a cui riferirlo e una serie di fenomeni organizzati e osservati con cui spiegarlo. Lo strumentalismo logico della previsione e del calcolo matematico ha una lunga tradizione. Questa ottica ci introduce nelle previsioni degli accadimenti fenomenici.
A questo punto, pero', bisogna anche connettere la mente all'azione per un esame sia della cibernetica che per stabilire connessione tra mente e azione (tecnologia), che tratteremo in seguito. Questa connessione ha bisogno di una ideale forma (simbolo, rappresentazione, ecc.) ma anche di una forma organizzata che produca azioni particolari da essere poi giustificate. Infatti l'Intelligenza Artificiale si basa proprio sulla comprensione di come vengono giustificate delle azioni per poi riprodurre un agente 'artificiale' le cui azioni siano giustificabili o razionali. Si ricorre di nuovo ad Aristotele. Nell'Etica Nicomachea Libro III, 3, 1112b, Aristotele tratta dei fini e dei mezzi. «Non deliberiamo sui fini, ma sui mezzi. Poiché un dottore non delibera se guarirà , né un oratore se persuaderà , né uno statista se stabilirà  legge e disciplina e nessuno delibera sui propri fini. Essi assumono il fine e considerano come e con quali mezzi venga ottenuto, e se sembra prodotto meglio e più facilmente in tal modo; mentre se é raggiunto soltanto attraverso un mezzo essi considerano come il fine sarà  raggiunto da questo e attraverso quale mezzo si possa raggiungere questo, fino ad arrivare alla causa prima, che é ultima nell'ordine delle scoperte ¦ e cio' che é ultimo nell'ordine dell'analisi sembra essere primo nell'ordine del divenire. E se perveniamo ad una impossibilità , abbandoniamo la ricerca, ad esempio quando abbiamo bisogno di denaro che non possiamo ottenere; ma se una cosa appare possibile cerchiamo di farla». Questa analisi dei mezzi e dei fini é utile ma non nel decidere come operare quando ci si imbatte in più azioni che permettono di raggiungere lo stesso scopo o, anche quando non é possibile alcuna azione che permetterà  di raggiungere quello scopo. Arnauld (1612-1694), seguace di Cartesio, previde la funzione di utilità  dei testi scientifici attuali, nonostante che egli applicasse questa regola al bene e al male. Nella Logica di Port-Royal, [La logique, ou l'art de penser] scritta nel 1662, insieme con Pierre Nicole (1625-1695), un altro dei portorealisti, egli affermo' che «Per giudicare quello che bisogna fare per ottenere un bene o evitare un male é necessario considerare non solo il bene ed il male di per sé, ma anche la probabilità  che accada o non accada; inoltre é necessario vedere geometricamente la proporzione che tutte queste cose hanno nell'insieme». John Stuart Mill (1806-1873) propose di usare la migliore ipotesi corrente e di adattarla ogni volta che si presentano nuove circostanze alfine di mantenerne la sua validità . Il suo libro Utilitarianism, London, Parke, Son and Bourn, 1863, (commentato in R. P. Anschutz, The Philosophy of J. S. Mill, Oxford, 1953,) amplia l'idea di Arnauld. Quanto era stato proposto da Aristotele nella sua Etica Nicomachea fu realizzato con il progamma denominato GPS da Newell e Simons [A. Newell e H. A. Simons, Human problem Solving, Prentice-Hall, Englewood Cliffs, New Jeresey, 1972]. Questi cosi' hanno affermato riferendosi al loro programma: «I metodi principali di GPS, nell'insieme, rappresentano l'euristica dell'analisi mezzi-fini. L'analisi mezzi-fini é un tipico esempio del seguente tipo di argomento di senso comune: 'Voglio portare mio figlio all'asilo. Qual é la differenza tra cio' che ho e cio' che voglio? La distanza. Cosa cambia la distanza? La mia automobile. La mia automobile non funziona. Di cosa ha bisogno per funzionare? Una batteria nuova. Chi ha batterie nuove? Un'officina meccanica. Voglio che il meccanico sostituisca una batteria nuova; ma il meccanico non sa che ne ho bisogno. Qual é la difficoltà ? La comunicazione. Che cosa permette la comunicazione? Un telefono ¦ e cosi' via. Questo tipo di analisi a classificare le cose in termini di funzione a cui servono ed oscillare tra i fini, le funzioni richieste e i mezzi che producono” forma il sistema base dell'euristica di GPS» (pp. 75-6). Si sono tralasciati qui volutamente gli sviluppi fenomenologici, strutturalisti ermeneutici dell'analisi e dell'organizzazione. Essi meriterebbero una nota particolare, per ora possono rientrare come metodo nell'arte dell'euristica, o della ricerca, del comporsi delle forme nelle strutture percettivo-formali; non a caso, nell'ottica dell'Intelligenza Artificiale, tutte queste discipline della ricerca filosofica tendono ad evidenziare ” riduttivamente ” le funzioni e l'applicazione di un sistema conoscitivo, cosi' come poi «semplificato» e «riprodotto» da Newell e Simons nel proprio programma GPS.
[6] Non sembra il caso di redigere una breve storia sulla matematica, ma si rimada il lettore ad un breviario esauriente che ripercorre le evoluzioni concettuali e simboliche di questa scienza. Cfr. Bruno Iaccarino, La storia dei segni matematici, Napoli, ESI, 1995. Pur non avendo alcun riferimento col mondo circostante, ad eccezione dei numeri, questa scienza nacque per valutare e individuare gli scambi nonché le modifiche fisiche che questi recavano. La matematica non disperde le proprie scoperte ma le conserva per altre possibili scoperte future. Non a caso la matematica utilizza tre sistemi per esprimere i propri risultati, spesso questi metodi descrittivi sono combinati tra loro. «Il primo ed anche il più antico modo di rappresentare la scienza matematica é stato il linguaggio verbale arricchito di eccezioni e di vocaboli utilizzati o creati solo per la matematica. Un esempio di questo tipo é l'enunciato del teorema babilonese attribuito a Pitagora la cui scoperta risale al primo millennio a. C. e che si é perpetuato verbalmente fino al medioevo». Ibidem, p.20. «Il secondo sistema di comunicazione matematica parallelo per antichità  al discorso verbale, utilizza il simbolismo. Si tratta di un insieme di segni convenzionali che sono stati inventati nel tempo per esprimere, sinteticamente ed in modo preciso, determinati tipi di operazioni». Ibidem, p.23. «Il terzo sistema di comunicazione matematica utilizza figure grafiche per trasmettere vari tipi di informazioni perché attraverso l'immagine queste informazioni appaiono più immediate e comprensibili anche ai non addetti ai lavori. Questi ultimi nel ricevere il linguaggio grafico associano inconsciamente il rigore formale di tipo matematico a questo tipo di rappresentazione».Ibidem, pp. 24-5. A questo si aggiunga anche un ulteriore sviluppo della matematica attraverso i computer. In una prima fase gli elaboratori venivano impiegati principalmente a calcolare le soluzioni di particolari equazioni, poi sono stati utilizati a elaborare anche simulazioni attraverso la grafica. Oggi elaborano, grazie alla AI, oltre che le strutture logiche anche le strutture decisionali in base al ragionamento probabilistico.
I simboli matematici, fin dalla loro nascita, sono serviti, una volta entrati nell'uso comune, «per individuare e riconoscere una operazione da sviluppare o un comando da eseguire. Infatti lo scopo della notazione incorpora sempre un meccanismo operazionale che per il suo automatismo si chiama algoritmo. Un'aspirazione per l'inventore di questo termine, Al-Khuwarizmi, [su altri testi abbiamo trovato chiamato, forse più correttamente, al-Khowarazmi, (G.S.)] che a suo tempo uso' le parole 'algoritmo dicita' per i soli simboli che servivano allo svolgimento delle quattro operazioni aritmetiche sui numeri posizionali. Allora 'algoritmo' era una parola quasi magica, come era costume della cultura araba che aveva dato corpo a tante favole come la 'lampada di Aladino'. Molto tempo dopo, invece, il termine algoritmo assunse legittimamente il significato che oggi gli si attribuisce. L'uso della parola fu generalizzato sino a diventare una realtà  per tutti i campi delle scienze. Attualmente sta a significare, in generale, una funzione o un insieme di funzioni, anche molto complesse, che hanno capacità  risolutiva automatica». [il corsivo é mio, ed é mio anche quanto viene rinvenuto in parentesi e con la sigla G.S.] Ibidem, p. 165.
Tre sono gli elementi fondanti lo sviluppo matematico, da una parte la logica, dall'altro il calcolo e ancora la probabilità  ed infine con la cibernetica e l'avvento dei computer dell'Intelligenza Artificiale si é passati all'azione, dando alla matematica anche una funzione pratico-combinatoria come strumento decisionale prima per operazioni simulative e poi anche nella vita pratica.
La logica di Aristotele, rimase materia filosofica fino a quando George Boole (1815-1864) nel 1847 [The Matematical Analysis of Logic: Being an Assay towards a Calculus of Deductive Reasoning] vi appose il suo linguaggio formale per determinare le proprie inferenze logiche. Gottlob Frege (1848-1925) nel 1879 [Begriffsscrift eine der arithmetischen nachgebildete Formel sprache des reinene Denkens, ristampato e tradotto in inglese nel 1967] vi appose le sue deduzioni e su cui si é poi fondata la logica del primo ordine, oggi comunemente usata come il più importante sistema per rappresentare la conoscenza. Alfred Tarski (1902-1983) introdusse un sistema teoretico che correla gli oggetti di logica con gli oggetti del mondo reale. David Hilbert (1848-1924), che oltre a presentare una lista dei 23 problemi che avrebbe appassionato i matematici di questo secolo che si sta chiudendo, si soffermo' a studiare l'Entscheidungsproblem o il problema della decisione: ovvero se esiste un algoritmo che possa decidere la verità  di ogni proposizione logica che riguarda i numeri naturali. Il più grande matematico di questo secolo Kurt Godel (1906-1978) nel 1930 [Über die Vollständigkeit des Logikkalküls] dimostro' che esisteva una procedura valida per dimostrare le proposizioni di primo ordine di Frege e Russell; ma questa logica di primo ordine, pero', non poteva dare alcun fondamento al principio di induzione matematica necessario a sua volta per caratterizzare i numeri naturali. Nel 1931 in un articolo [Cfr. On Formally Undecidable proposizion, New York, Basic Books, 1962, che é la traduzione inglese dell'articolo di GODEL del 1931 insieme ad una sua discussione mentre l'originale ha il titolo Über Formal Unentscheidbare Sätze der Principia Mathematica und Verwandter Systeme, I in Monatshefte für Mathematik und Physik 38, (1931), pp. 173-198] egli mostro' i limiti reali di tale impossibilità . [A tal proposito si veda il famosissimo libro tra arte, filosofia, biologia, logica, AI e matematica di Douglas R. Hofstadter, Gödel, Esher, Bach: un'Eterna Ghirlanda Brillante, Milano, Adelphi, 1990 dove il teorema di Godel diventa nesso di congiunzione genetico per l'evoluzione dei problemi di matematica, di logica, di filosofia, di AI, di arti visive e di composizione musicale. Si veda specie pp. 741-780]. Il teorema di incompletezza di GÖDEL dimostra che in un qualsiasi linguaggio che esprime le relazioni dei numeri naturali si riscontrano sempre delle affermazioni vere che sono indecidibili, per cui non si puo' sottoporre ad alcun algoritmo la loro verità . Il risultato di questa dimostrazione indusse Alan Turing (1912-1954) a cercare, dal momento che GODEL aveva dimostrato che ci sono alcune funzioni dei numeri interi che non possono essere calcolate, quali sono le funzioni che possono, invece, essere sottoposte a calcolo. Cosi' nel 1936 si giunse alla macchina di Turing che é in grado di calcolare qualsiasi funzione calcolabile [On computable numbers, with an application to the Entscheidungsproblems in Procedings of the London Mathematical Society, 2nd series, 4", pp. 230-265. Correzione pubblicata nel vol. 43, pages 544-546]. Egli ha inoltre dimostrato che c'erano delle funzioni che nessuna macchina di Turing puo' essere in grado di calcolare. Una di queste, ad esempio, é come nessuna macchina puo' dire in generale se un programma possa o meno dare una risposta ad uno stimolo oppure continuerà  le proprie elaborazioni all'infinito. Accanto alla indecidibilità  e alla non calcolabilità  per comprendere una computazione matematica vi sono le nozioni della intrattabilità  e di riduzione. Entrambe derivano dalla teoria della complessità . Generalmente é giudicato intrattabile una classe di problemi se il tempo richiesto per risolvere il problema di detta classe sia in crescita almeno esponenziale con la dimensione delle istanze. Questa crescita esponenziale secondo A. Cobham [The intrinsic computational difficulty of functions, sta in Y. Bar-Hillel (a cura di) Proceedings of the 1964 International Congress for Logic, Metodology and Philosophy of Science, Elsevier/North-Holland, 1964, pp. 24-30] e J. Edmonds [Paths, trees and flowers, sta in Canadian Journal of Mathematics, 17, 1965, pp. 449-467] rivelano che un problema non è risolvibile in un tempo ragionevole neanche se si tratta di un problema di dimensioni modeste. L'altro problema anch'esso degli anni '60 é quello di riduzione trattato da G. B. Dantzing [On the significance of solving linear programming problems with some integer variables, sta in Econometrica, 28, 1960, pp. 30-44] e J. Edmonds [Covers and packings in a family of sets, sta in Bulletin of the American Mathematical Society, 68, 1962, pp. 449-469]. La riduzione viene presentata come una trasformazione generale da una classe di problemi ad un'altra classe di problemi. Con questo passaggio si possono circoscrivere i problemi e trovare la soluzione di questa classe ridotta dei problemi e per transizione poi risolvere anche quelli della prima classe. Il riconoscimento di un problema intrattabile viene affrontato secondo la teoria della NP-completezza cominciata da Steven A. Cook [The complexity of theoremproving procedures, sta in Procedings of the 3rd Annual ACM Symposium on Theory of Computing, New-York, 1971] e Richard M. Karp [Reducibility among combinatorial problems, sta in R. E. Miller e J. W. Thatcher (a cura di), Complexity of Computer Computations, New York, Plenum, 1972, pp. 85-103]. Loro forniscono un metodo per riconoscere un problema intrattabile. Non a caso ogni classe di problemi trattabili a cui puo' essere ridotto una classe NP-completi é probabile che quelle per classi di problemi che si verifica cio' siano intrattabili.
Un altro grande contributo alla matematica é venuto, infine, dalla teoria della probabilità .
Gerolamo Cardano (1501-1576) per primo introdusse nel moderno [Liber de ludo aleae] l'idea di probabilià , questa fu impiegata come pronostico di un possibile risultato ed adibita al calcolo degli eventi di giochi, divenendo in seguito un altro elemento chiave per l'evoluzione della matematica. Da allora Pierre Fermant (1601-1665), Blaise Pascal (1623-1662), James Bernoulli (1654-1705), Thomas Bayes (1702-1761) Pierre Laplace (1749-1827) e tanti altri diedero il loro apporto trovando nuovi metodi statistici e facendo progredire questa teoria.
In conclusione logica, calcolo e teoria delle probabilità  sono a fondamento della nuova matematica che porta all'azione attraverso la AI.
[7] Mi riferisco principalmente alla psicologia scientifica iniziata dal fisico tedesco Hermann von Helmholtz (1821-1894) ed il suo allievo Wilhem Wundt (1832-1920) e ai contributi sulle soglie di percezioni (o riconoscimento degli stimoli) relazionate alle azioni risultanti (risposte) da quei processi mentali facilmente rilevabili, o di carattere oggettivo, sviluppato dal comportamentismo di John Watson (1878-1958) e Edward Lee Thorndike (1874-1949) in auge dal 1920 al 1960 negli Stati Uniti d'America. La psicologia cognitiva, che tratta il cervello come centro di elaborazioni di informazioni, almeno fino ai lavori di William James (1842-1910), perde la sua funzione di centralità  a partire dal comportamentismo di Craik [cfr. Kenneth J. W. Craik, The Nature of Explanation, Cambridge, University Press, 1943]. Egli introdusse altri elementi ai componenti automatici intercorrenti tra lo stimolo e la risposta, osservando sia il mondo naturale che quello umano, o mentale. Nella conoscenza egli individuo' tre passi chiavi di un agente. Da una parte vi é lo stimolo che produce una rappresentazione interna; successivamente questa rappresentazione viene manipolata da processi cognitivi e si confronta con le rappresentazioni interne e le previsioni di azioni; infine questa configurazione di rappresentazioni viene riconvertita in decisione e quindi azione. Dal 1960 in poi la psicologia scientifica, specie negli Stati Uniti ed in Inghilterra, si é concentrata sulla elaborazione delle informazioni. La conoscenza sviluppata dalla psicologia scientifica é una delle basi su cui si fonda la AI. La coscienza é il centro di questo problema.  In che modo si sente?, o, in che modo si produce il sentire? Gli studi attuali della neurobiologia e della AI si sono centrati su tre problemi importanti che implicano sia il mondo della filosofia, sia quello dell'arte che quello dell'azione: ovvero «aiutare a capire il diversissimo impatto biologico di tre fenomeni distinti, seppure strettamente collegati: un'emozione, il sentire quell'emozione e il sapere di sentire quell'emozione». Antonio R. Damasio, Emozione e coscienza, Milano, Adelphi, 2000, p. 21. I principali filosofi che in questi anni si sono soffermati su questo problema con una visione neurobiologica sono Edgard Morin, Daniel Dennett, Paul e Patricia Churchland, Thomas Nagel, Colin McGinn e John Searle nonché alcuni neuroscienziati come Gerald Edelman e Francis Crick.
[8] Cfr. B. F. Skinner, Science and Human Behavior, London, Mcmillan, 1953, e il suoVerbal behavior, London, 1957
[9] Cfr. Norman Avram Chomsky, Syntactic Structures, The Auge and Paris, Mouton, 1957, in italiano vedere specie i tre volumi dei suoi Saggi: Saggi Linguistici, I L'analisi formale del linguaggio, Torino, Boringhieri, 1969, Saggi Linguistici, II, La grammatica generativa trasformazionale, Torino, Boringhieri, 1969, Saggi Linguistici, III , Filosofia del linguaggio: ricerche teoriche e storiche, Torino, Boringhieri, 1969.
[10] Gli sviluppi degli studi sulla linguistica si sono poi indirizzati sulla rappresentazione della conoscenza. In essa sono confluiti sia gli studi ispirati dalla ricerca linguistica, sia quelli ad essa collegata, ovvero quella dell'analisi filosofica del linguaggio. Questi studi sono stati utilizzati non per sviluppare teorie ma sistemi tradotti in funzioni matematico-operative. Attraverso questi studi si penso' come rendere operativo un modo di ragionare, ovvero si desidero' costruire un calcolatore che non solo ragionasse, ovvero aprisse quei canali di sistemi operativi e confusionisti di informazioni, ma lo facesse anche funzionare. In tal senso molti autori fanno nascere la linguistica moderna e l'Intelligenza Artificiale nello stesso momento: «per cui la linguistica non ricopre un ruolo fondamentale nella crescita dell'AI. Le due discipline, anzi, sono cresciute insieme, intersecandosi in un campo ibrido chiamato linguistica computazionale o elaborazione del linguaggio naturale, che si concentra sul problema dell'uso del linguaggio». Stuart J. Russell e Peter Norvig, Intelligenza Artificiale, Torino, UTET, 1998, p. 17.
[11] La nascita dell'Intelligenza Artificiale di solito si fa risalire ad un articolo di McCulloch e Pitts del 1943 [W.S. McCulloch e W. Pitts, A Logical calculus of the ideas immanent in nervous activity, sta in Bullettin of Mathematical Biophysics, 5, 1943, pp. 115-137]. Questi autori, nella loro formulazione si avvalsero di fonti diverse: le ricerche sulla conoscenza fisiologica e sulle funzioni dei neuroni nel cervello, connesse all'analisi della logica proposizionale dovuta a Russell e Withead e a Russell e, infine, la teoria della calcolabilità  di Turing. McCulloch e Pitts, «proposero un modello di neuroni artificiali nel quale ciascun neurone é caratterizzato dall'essere 'acceso' o 'spento', con un cambiamento nello stato 'acceso' che si verifica in risposta allo stimolo di un numero sufficiente di neuroni vicini. Lo stato di un neurone era concepito come 'di fatto equivalente ad una proposizione che proponesse il suo stimolo adeguato'. Mostrarono, per esempio, che ogni funzione calcolabile poteva essere calcolata da qualche rete di neuroni connessi e che tutti i connettivi logici potevano essere realizzati attraverso semplici strutture di rete. McCulloch e Pitts suggerirono, inoltre, che reti opportunamente definite potevano apprendere» Stuart J. Russell e Peter Norvig, Intelligenza Artificiale, op. cit., p. 17. Da qui in poi si sviluppa lo studio e la costruzione di macchine in base ai canoni dell'intelligenza artificiale. Macchine che apprendevano meccanismi e aprivano reti che producevano lavoro e oggi informazioni.
Nel redigere questa e alcune delle precedenti note (n° 5, 6, 7,) mi sono lasciato indirizzare in molti passaggi, da quella tracciata nel grande volume tecnico-opeativo volto più alla costruzione vera e propria di programmi operativi per la intelligenza artificiale di Stuart J. Russell e Peter Norvig, Intelligenza Artificiale, op. cit., con l'aggiunta di altri autori che di volta in volta ritenevo opportuni. Si noti, inoltre, l'area di ricerca che é «complessa» di noi studiosi non solo della genesi e della teleologia della «materia» organizzata, in base alle attuali scoperte delle scienze matematiche fische e genetiche, ma anche delle diverse formazioni/organizzazioni delle informazioni/cognizioni nei segmenti della freccia temporale attraverso l'operatività  della mente, i cui studi confluiscono nella cibernetica, definita da molti, riduttivamente, come filosofia della mente: Essa fa spaziare dalla critica letteraria e dalle arti, alla psicologia alla filososfia alla linguistica alla sociologia alle scienze cognitive fino alla neotecnologie dell'intelligenza artificiale, collazionando i paradigmi operativo-evolutivi di tutte le scienze e delle neuroscienze presenti in questo nostro processo cognitivo che si propone di organizzare informazioni attraverso il «sentire», il produrre e l'operare nell'hic et nunc di questa dimensione della freccia dell'espansione temporale. A tal proposito si rimanda al testo storico, dall'approccio specificamente filosofico, di William Bechtel, Filosofia della mente, Bologna, il Mulino, 1999, mentre molto più profonda e chiara é l'esplicazione della nuova filosofia genetico-cognitiva da Edgard Morin. [Cfr. per una introduzione a tale visione almeno, oltre al testo già  citato di Edgard Morin, Il Metodo, op. cit., anche ID. La vita della vita, Milano, Feltrinelli, 1987, e ID. La conoscenza della conoscenza, Milano, Feltrinelli, 1989].
[12] Ancora una volta dovremmo chiederci: cos'é la materia? Lasciamo questa volta che il termine ci venga configurato in modo elementare da un fisico, con le sue osservazioni sulle molecole. Egli ci ricorderà  non solo che ogni organismo materiale é una organizzazione di atomi, ma ci illustrerà  la consistenza di questo organismo e come puo' essere liberata l'energia di legame tra le molecole. Egli, infatti, cosi' spiega la costituituzione della materia «Tutta la materia normale é formata di atomi, che a loro volta sono composti da nuclei centrali molto densi circondati da una nube di elettroni. Come potrete ricordare dai corsi di chimica o di fisica delle scuole superiori, la maggior parte del volume di un atomo é composto da spazio vuoto. La regione occupata dagli elettroni esterni é circa diecimila volte più estesa della regione occupata dal nucleo. PerchÃé, se gli atomi sono formati per la maggior parte da spazio vuoto, la materia non passa attraverso altra materia? La risposta é che quel che rende solido un muro non é l'esistenza delle particelle bensi' quella dei campi elettrici che si estendono tra una particella e l'altra. Quando io batto una manata sul tavolo, la mia mano é fermata primariamente dalla repulsione elettrica fra gli elettroni degli atomi della mia mano e gli elettroni degli atomi che formano il tavolo, e non dalla mancanza di spazio fra gli elettroni. Questi campi elettrici non solo rendono corporea la materia nel senso di impedire agli oggetti di passare l'uno attraverso l'altro, ma ne assicurano anche la coesione. Per alterare questa situazine normale, si devono percio' superare le forze elettriche che agiscono fra gli atomi. Per superare queste forze si richiede lavoro, che consuma energia. E' cosi' che funzionano in effetti le relazioni chimiche. Le configurazioni dei singoli sistemi di atomi e i loro legami vengono alterati in conseguenza di scambi di energia. Per esempio se si inietta dell'energia in un miscuglio di nitrato d'ammonio e di olio combustibile, le molecole dei due materiali possono ridisporsi, e nel corso di questo processo puo' essere liberata l'"energia di legame" che teneva assieme i materiali originari. Questa liberazione, se abbastanza rapida, causerà  una grande esplosione». [Lawrence M. Krauss, La fisica di Star Trek, Milano, Longanesi, pp. 85-6]. Il punto di vista della fisica dà  oggi una certezza: Eé l'energia che tiene coeso qualsiasi corpo, o forma. Il corpo ha consistenza perché vi circola energia controllata che alimenta e fa funzionare i vari organi. Ora si puo' anche comprendere perché gli studi dei neuroscienziati e della nuova fisiologia sono centrati sia sulla organizzazione che sull'utilizzo dell'energia (questa sia sottoforma di stimoli sinaptici che per combinazione bio-chimica) e si puo' anche ipotizzare quali effetti corporei producono gli aggiustamenti strutturali in quell'ambiente o quali reazione producono l'immissione di agenti chimici o le stimolazioni elettriche ecc. con cui si riequilibra l'energia in quel corpo che ha prodotto alcune disfunzioni. Il corpo é un meccanismo che viene di nuovo osservato in medicina nella sua eterogenea struttura e nella funzionalità  operativa. La nuova medicina si interessa del modo in cui circola e si trasforma l'energia bio-elettrica nel corpo e come le organizzazioni fisologiche degli organi in relazione all'ambiente reagiscono a determinati stimoli esterni. Alcuni medici hanno compreso che non solo la biologia ma anche la fisica subatomica concorre a spiegare come funziona il nostro organismo e quali ripercussioni la micorfisica ha su di una macrostruttura. Tutto cio' é avvenuto anche perché é stato dimostrato in che modo l'energia di legame degli atomi é meno forte rispetto all'energia che lega le particelle, / protoni e neutroni / che compongono i nuclei atomici, i quali hanno una incredibile densità . A tal proposito, ci ricorda Krauss « Percio' le reazioni nucleari liberano una quantità  d'energia significativamente maggiore  di quella liberata dalle reazioni chimiche; ecco perché le armi nucleari sono cosi' potenti. Infine l'energia di legame che tiene assieme i quark / ossia le particelle elementari che formano i protoni e i neutroni stessi / E' ancora maggiore di quella che assicura la coesione di protoni e neutroni nei nuclei. In effetti si ritiene, sulla base dei calcoli resi possibili dalla teoria che descrive le interazioni dei quark, che per separare completamente i quark che compongono ogni protone o neutrone si richiederebbe una quantità  d'energia infinita. Sulla base di questo argomento potremmo ritenere impossibile una completa dissoluzione della materia nei quark, i suoi componenti fondamentali, e in effetti é cosi', almeno a temperatura ambiente. La stessa teoria che descrive le interazioni dei quark all'interno dei protoni e neutroni ci dice pero' che, se riscaldassimo i nuclei a 1000 milardi di gradi circa (una temperatura un milione di volte maggiore di quella vigente nella regione centrale del Sole), non solo i quark che compongono i nuclei perderebbero le loro energie di legame, ma la materia perderebbe improvvisamente quasi tutta la sua massa trasformandosi in radiazione, o,/ smaterializzandosi». [Ivi, pp. 86-7]. Quanto esplicato nella nota ci occorre per comprendere come energia e organizzazione organica sono i fondamenti sia del corpo biologico vivente che per un qualsiasi altro organismo, anche robotico. In entrambi importante sono come sono organizzate le informazioni (biologiche, o di memoria, o banca dati computerizzata) e a quali sistemi operativi i due organismi fanno riferimento una volta riconosciuta una variabile (o evento).
[13] Il fisico John D. Bernal, nella sua ricognizione storica sulla cosiddetta «fisica classica» ha evidenziato come gli sviluppi tecnici hanno condotto sempre ad un'altra evoluzione della fisica. Essa, come il linguaggio, é difficile da cambiare. Infatti dall'età  della pietra ad oggi «il grosso del linguaggio e del modo di pensare ad esso collegato é un fossile e abbiamo davanti a noi un lungo cammino prima di potercene liberare. Per esempio, alcune nozioni che consideriamo puramente matematiche, quali quelle dell'angolo retto e del quadrato, sono, alla loro origine, di natura tecnica o sociale.  L'idea di corretta disposizione dell'abitato é l'idea stessa di legge, di regola. Regola é una parola di natura sociale, solo in un secondo tempo le é stato dato un carattere matematico. la stessa cosa vale per i punti cardinali, corrispondenti all'orientamento dell'accampamento: un messaggio dell'ordinamento primitivo di carattere sociale ad uno più sofisticato di carattere geometrico». John D. Bernal, Storia della fisica, Roma, Editori Riuniti, 1983, pp. 20-1. Si veda a tal proposito tutto il paragrafo Aspetti sociali della fisica, pp.19-21. Inoltre segnaliamo i coordinamenti fisiologici tra i vari organi di senso che questo autore evidenzia nel trattare gli aspetti fisici. Egli individua sette organi di senso. Ai cinque comuni ne aggiunge altri due: quello muscolare, con i suoi organi, i cosiddetti fusi neuromuscolari, utile a mantenere l'equilibrio insieme alla forza, e la percezione della temperatura, che é studiata dalla fisica, ma viene rilevata dalla modificazione chimica dell'esposizione dell'organismo e quindi si associa agli altri due sensi che hanno componenti chimici, quali quelli dell'odorato e del gusto. Si veda a tal proposito pp. 15-19 e 199 segg. e pp. 274-77. A questa visione sociale della matematica si aggiunga quanto nel campo filosofico il neo-empirista Friedrich Waismann, nel 1936, affermava «La matematica non consiste di tautologie. Per quanto riguarda il segno d'eguaglianza, osserviamo solo la scrittura a  = b viene usata, in matematica, come una regola la quale esprime che a, ovunque compaia, puo' venir sostituita da b ¦ 
L'eguaglianza non costituisce dunque una tautologia ma piuttosto un comando ed é molto più prossima ad una proposizione empirica che ad una tautologia. Essa é effettivamente una regola che dirige le nostre azioni (come una regola del gioco degli scacchi) regola che puo' venire seguita o trasgredita». F. Waismann, Introduzione al pensiero matematico, Torino, 1939, pp. 164-5. Non a caso dall'ottica della costruzione matematica neo-empirista l'importante é assumere e rendere valido il sistema operativo e non più l'esperienza. Fondamentali, quindi, sono i frutti che questo sistema puo' produrre. L'esperienza inizia ad avere la sua importanza solo quando essa entra in conflitto con uno dei sistemi organizzativi della matematica (o, meglio, della logica).
[14] Vedasi a tal proposito il «mondo tre», o mondo intermedio, di Karl R. Popper, specie il saggio Epistemologia senza il soggetto conoscente, letto il 25 agosto del 1967 ad Amsterdam al Terzo convegno Internazionale di Logica, metodologia e filosofia della scienza (25 agosto - 2 settembre) (titolo originale dell'intervento Epistemology Without a Knowing Subject, sta negli Atti di quel convegno a cura di B. Van Rootselaar e J. F. Staal, Amsterdam 1968, pp. 333-373,) la cui traduzione italiana sta in, K. R. Popper, Epistemologia razionalità  e libertà , Roma, Armando Editore, 1972, pp. 7-66. Il concetto di mediocosmo é stato anche usato da Adolf Portmann in biologia per descrivere la vita nel mondo della natura e delle forme umane in base alla quale l'uomo regola e conduce la propria vita e lo ha distinto da quello del movimento dei pianeti, delle stelle e delle galassie / o macrocosmo / e da quello dei sistemi biologici dei microrganisi elementari, che noi non vediamo. Si veda a tal proposito la sua conferenza Eranos del 1961pubblicata in «Eranos -Jahrrbuch» XXX, 1962 dal titolo in italiano I principi ordinatori della vita nell'interpretazione della biologia, sta in A. Portmann, Le forme viventi, nuove prospettive della biologia, Milano, Adelphi, 19892, pp. 239-286, specie pp. 279 e segg.
[15] Il mondo tecnologico procede parallelamente, spesso intersecandosi e, quando compreso, identificandosi con un Movimento culturale chiamato New Age. Sebbene la controcultura del Movimento americano degli anni '60,  quello hippye, yippie, black power ecc. all'inizio avesse rifiutato la tecnologia ha poi proposto le nuove strade per la ricerca del benessere individuale tra eclettismo e sincretismo culturali di religioni teorie avanzate e forme di pensiero esistenti sul pianeta, in una visione olistica dell'uomo e della natura. Successivamente, negli Stati Uniti d'America, specie sotto l'impulso della letteratura cyber, é nato un nuovo movimento denominato Next Age, dove anche la tecnologia é diventata uno dei cardini della nuova esperienza spirituale. Quest'ultimo movimento sviluppando il carattere individualistico, propone soluzioni a livello personale. Tra i rappresentanti più noti del Movimento Next Age troviamo Deepak Chopra, Antony Robbins e Morgan Scott Peck. Per una introduzione alla New Age si indicano alcuni testi tradotti in italiano A. Dobroczyrisk, New Age, Milano, Mondadori, 1997; C. A. Keller, New Age. Lo «spirito» della nuova era, Roma, Ed. Mediterranea, 1989; E. Fizzotti, (a cura di), La dolce seduzione dell'acquario, Roma, Las, 1996; N. Drudy, Il potere della mente, Milano, Xenia, 1993; M. Lacroix, L'ideologia della New Age, Milano, il Saggiatore, 1996; J. Vernette, Che cos'é il New Age, Varese, SugarCo, 1994; A. N. Terrin, Che New Age. La religiosità  del post moderno, Bologna Edb, 1993; e M. Introvigne, Storia del New Age, 1962-1992, Piacenza, Cristianità , 1994. Specifico sulla Next Age, si vedano per una bibliografia G. B. Amidei, Next Age, Monferrato, Piemme, 1998; M. Introvigne e P. L. Zoccatelli, New Age-Next Age, Firenze, Giunti, 1999.
[16] I. Kant, Critica del Giudizio, Roma-Bari, Laterza, 1979, vol.II, p. 243.
[17] Tra le opere recenti che si muovono verso una biopoetica o una bioestetica e che hanno trattato la teoria biologica dell'interpretazione e della storia delle arti vanno incluse alcune opere di questi autori citati da Wilson: Charles J. Lumsden e Edward O. Wilson, Genes, Mind and Culture, Cambridge, MA, Harvard University Press, 1981; Edward O. Wilson, Biophilia, Cambridge, MA, Harvard University Press, 1984; Fredrick Turner, Natural Classicism: Esay on literature and Science, New York, Paragon Hause Publishers, 1985; Fredrick Turner, Beauty: The Value of Values, Charlottesville, University Press of Virginia, 1991; Fredrick Turner, The Cultur of Hope: A new Birth of the Classic Spirit, New York, Free Press, 1995; Ellen Dissanayake, What Is Art for?, Seattle, WA, University of Washington Press, 1998; Ellen Dissanayake, Where Art Comes From and Why, New York, Free Press, 1992; Iräneus Eibl-Ebelseldt, Etologia umana. Le basi biologiche e culturali del comportamento, Torino, Bollati Boringhieri, 1993; Margaret A. Boden, The Creative Mind: Myths & Mechanism, New York, BasicBook, 1991; Alexander J. Argyros, A Blessed Rage for Order: Deconstruction , Evolution and Chaos, Ann Arbor, University of Michigan Press, 1991; Kathryn Coe, Art : the replicable unit - an inquiry into the possible origin of art as a scoial behavior, in «Journal of Social and Evolutionary Sistem», 15, pp. 217-34, (1992); Walter A. Koch, The Roots of Literature, e W. A. Koch, (a cura di)The Biology of Literature, Bochum, N. Brockmeyer, 1993; Robin Fox, The Challenge of Antropology: Old Encounters and New Excoursions, New Brunswick, NJ,Transaction, 1994; Joseph Carroll, Rvolution and Literary Theory, Columbia, MO, University of Missouri Press, 1995; Robert Storey, Mimesis and the Human Animal : On the Biogenetic Foundations of Literary Representation, Evanston, IL, Northwestern University Press, 1996; Brett Cooke, «Utopia and The art of the visceral response» sta in Gary Westfahl, George Slusser &Eric S. Rabin (a cura di), Foods of the Gods: Eating and the Eaten in Fantasy and Science Fiction, Athens, GA, University of Georgia Press, 1996, pp. 188-99; Brett Cooke e Frederick Turner (a cura di), Biopoetics: Evolutionary Esplorationns in the Arts, New York, Paragon Press, 1998.
[18] Edward O. Wilson, L'armonia meravigliosa. Dalla biologia alla religione, la nuova unità della conoscenza, Milano, Mondadori, 1999, p. 248.
[19] Cfr. G. Siano, L'estetica la physis e l'organizzazione delle informazioni, sta in Atti del V Convegno nazionale dell'Associazione Italiana per gli studi di Estetica del 1999 a Gargnano sul Garda, Torino, Trauben, 2000, pp.
[20] Mario Perniola, Del sentire, Torino, Einaudi, 1991, p. 39.
[21] Cfr. K. R. Popper -J. C. Eccles, L'io e il suo cervello, I, Materia, coscienza e cultura, a cura di B. Continenza, Roma, 1981, ripreso poi anche da Antimo Negri, I tripodi di Efesto, Milano, Sugarco, 1986.
[22] Cfr. esiodo, La teogonia, vv.928-929.
[23] Iliade, I, «Il crudo/ afferrommi d'un piede, e miscaglio'/ dalle soglie celesti. Un giorno intero/ rovinai per l'immenso e rifinito/ in Lenno caddi col cader del sole/ dalli Sinzi raccolto, a me pietosi». Ma non era la prima volta che Efesto veniva gettato dall'Olimpo. L'altra volta, con una caduta meno rovinosa, fu alla nascita quando Era, visto il bambino debole e deforme, o perché nato prematuro o generato senza le prestazioni paterne, decise di disfarsene, cosi' come egli stesso ricorda in Iliade, XVIII, «quando dal cielo/ mi feo gittar l'invereconda madre,/ che il distorto mio pié volea celato». Quella volta la caduta non fu tanto rovinosa perché cadde in mare e fu salvato da Eurénome e Teti. Cosi' ancora ricorda il protagonista della vicenda: «E mille allor m'avrei doglie sofferto,/ se me dal mar non raccogliea nel grembo/ del rifluente Océano la figlia/ Eurénome e la Dea Teti. Di queste quasi due lustri in compagnia mi vissi,/ e di molte vi feci opre d'ingegno/ fibbie ed armille tortuose e vezzi/ e bei monili in cavo antro nascoso,/ a cui spumante intorno ed infinita/ di Océa n la corrente mormorava». (Iliade, XVIII).
[24] Cfr. l'attribuzione a Efesto che Esiodo fa ne Le opere e i giorni, e ne La teogonia. Di questo mito alcuni dicono che fosse stato reinventato da Esiodo e dalla sua misogenia, o sia stato frutto di una fantasia rancorosa contro le donne. Ma il rapporto tra Eva e Pandora evidenziati da Morelli, porta a considerare il mito di Pandora come un vero mito originario. Cfr. A. Morelli, Dei e Miti, Enciclopedia di mitologia Universale, Milano, Fratelli Melita, 1987.
[25] Penso al testo sulla manipolazione genetica dovute agli sviluppi delle biotecnologie o dell'ingegneria genetica e sulle prospettive future dell'uomo, dal titolo suggestivo e significativo scritto dal professore di «Filosofia applicata» presso il Centre for Social Ethics and Policy dell'Università  di Manchester, John. harris, Wonderwoman e Superman, Milano, Baldini e Castoldi, 1997.
[26] Non a caso Quine dopo aver definito la scienza come campo di forza i cui punti limite sono l'esperienza afferma «Come empirista io continuo a considerare lo schema concettuale della scienza come un mezzo, in ultima analisi, per predire l'esperienza futura alla luce della esperienza passata. Gli oggetti fisici vengono concettualmente introdotti nella situazione come intermediari / non definendoli in termini di esperienza, ma come semplici postulati non riducibili, paragonabili da un punto di vista epistemologico /, agli dei di Omero. Io, che di fisica ho nozione più che comuni, credo per parte mia agli oggetti fisici e non agli dei di Omero; e considero un errore scientifico credere altrimenti. Ma in quanto a fondamento epistemologico, gli oggetti fisici e gli dei differiscono solo per grado e non per loro natura. Sia l'uno che l'altro tipo di entità  entrano nella nostra concezione soltanto come postulati culturali. Da un punto di vista epistemologico il mito degli oggetti é superiore agli altri nel fatto che si é dimostrato più efficace degli altri miti come mezzo per elevare una semplice costruzione nel flusso dell'esperienza. E non ci fermiamo a postulare gli oggetti fisici del mondo macroscopico. Si postulano degli oggetti anche a livello atomico¦ La scienza é un prolungamento del senso comune e si serve dello stesso espediente del senso comune: amplia l'ontologia per semplificare la teoria». Cfr. W. V. Quine, Il problema del significato, Roma, Ubaldini-Astrolabio, 1966, p. 42.
[27] Cfr. gaston bachelard, Epistemologia, Bari, Laterza, 1975, Questa antologia, a cura di Dominique Lecourt, degli scritti di Bachelard evidenzia l'attenzione ai progressi contemporanei della scienza della fisica e chimica contemporanea in continua polemica nei confronti delle ormai antiquate teorie filosofiche della conoscenza ancora tutt'oggi in circolazione. L'epistemologia per Bachelard si deve intendere come una fenomenologia di lavoro, intesa come organizzazione «o riforma di una illusione». Infatti fino al XIX secolo «la scienza, si credeva era reale per i suoi oggetti, ipotetica per le connessioni stabilite tra gli oggetti». Con la nuova fisica subatomica «adesso sono gli oggetti che sono rappresentati da metafore ed é la loro organizzazione a presentarsi come realtà . In altri termini, cio' che adesso é ipotetico é il nostro fenomeno; giacché la nostra presa immediata sul reale non gioca che come dato confuso, provvisorio, convenzionale, e questa presa fenomenologica richiede inventario e classificazione. Al contrario é la riflessione che darà  senso al fenomeno iniziale, suggerendo una serie organica di ricerche, una prospettiva razionale di esperienze. Noi non possiamo avere a priori alcuna fiducia nell'istruzione che il dato immediato intende fornirci. Esso non é né un giudice né un testimone; é un accusato, ed é un accusato della cui menzogna prima o poi si esibiscono le prove. La conoscenza scientifica é sempre la riforma di una illusione. Pertanto, nella descrizione, anche se minuziosa, di un mondo immediato non possiamo ormai vedere altro che una fenomenologia di lavoro nel senso in cui si parlava una volta di ipotesi di lavoro». Ibidem, p. 10, [il corsivo é suo].
Un approfondimento poi di questo modo di intendere la fenomenologia ha portato ad altre osservazioni. Da una parte c'é il corpo fisiologico e dall'altra il corpo-fantasma della mente. Oggi si tenta di riunificare e spiegare gli eventi del corpo-fantasma che ha la capacità  di rendersi conto dei cambiamenti di posizione del corpo attraverso l'esistenza di una struttura corticale. Quanto detto trova suoi nuovi sviluppi anche con l'apporto della scienza, fondata alla fine degli anni '40 da Claude Shannon, chiamata «teoria dell'informazione», con cui egli dimostro' che qualsiasi messaggio, in parole o in numeri, poteva essere ridotto ad una serie di sequenze di 1 e 0. Con il primo articolo di Shannon sulla «Teoria matematica dell'informazione», pubblicato nel 1948, (e poi, nel 1949, C.E. Shannon e W. Weaver, The Matematical Theory of Comunication, Urbana, Univerity of Illinois Press, 1949,) si inizio' a comprendere / sia tra gli scienziati, ma anche tra i filosofi / che c'é un nuovo modo per osservare il mondo: ovvero considerandolo una serie di relazioni in cui entra in gioco anche l'informazione e non solo la materia e l'energia. Ma i primi lavori sulla AI (Intelligenza Artificiale) si fanno risalire a Warren McCulloch e Walter Pitts (W. S. McCulloch e W. Pitts, A logical calculus of the ideas immanent in nervous activity, sta in Bullettin of Matematical Biophysics, 5, 1943, pp. 115-37). Essi avevano attinto a tre fonti: «la conoscenza della fisiologia e della finzione di base dei neuroni nel cervello, l'analisi formale della logica proposizionale dovuta a Russell e Whitehead e la teoria della calcolabilità  di Turing». (Sta in S. J. Russell e P Norvig, Intelligenza Artificiale, Torino, UTET, 1998, p. 17). Nel 1956 ad un convegno nella città  di Dartmouth a cui partecipo' Nathaniel Rochester, che era uno scienziato dell'IBM, avvenne un importante incontro. Questi aiuto' Minsky a realizzare un programma appena allora teorizzato, per la dimostrazione di teoremi della geometria piana, e sviluppato poi da Herbert Gelernter della IBM. Furono poi le ulteriori ricerche di John McCarty, Marvin Minsky, Herbert Simon e Allen Newell attraverso cui si inizio' a trasferire le semplici operazioni della mente in una «memoria» di un computer. Si veda George Johson, La Mente e la macchina, Milano IHT, gruppo Editoriale Srl, 1990, p. 40.
[28] Con Newton il processo scientifico prende nuova vitalità . Newton nel XVIII secolo diventa emblema dell'uomo che ha scoperto il linguaggio attraverso cui parla la natura. Poeti, scultori e artisti di tutte le arti, nonché scienziati, filosofi, politologi e moralisti si trovano coinvolti nel fondare le loro argomentazioni su questo nuovo ordine naturale. Newton svela il nuovo mondo incantato attraverso i miti dell'armonia. Da qui si genera tutta la letteratura newtoniana: dall'armonia che regna nella società  degli astri fino alle antipatie o alle affinità  riscontrabili nelle associazioni o nello scioglimento dei legami nei composti chimici. Tutti possono assistere agli effetti organizzativi che si riproducono in modo similari, a volte sfalsati o amplificati nell'universo delle società umane. Una nuova giustificazione ed organizzazione della vita viene prodotta con la linfa vitale dei nuovi termini scientifici. Si veda l'uso metaforico dei concetti newtoniani all'inizio del XIX secolo che giunge fino agli anni '70 del nostro secolo XX. Le attuali evoluzioni nel campo della fisica della fisiologia delle neuroscienze della biologia e delle scienze evolutive iniziano a produrre una recente e più appropriata analisi della organizzazione del linguaggio e dei processi sociali e culturali coevi. La cultura diventa, cosi', l'organismo conoscitivo attraverso cui si indaga l'infinitamente piccolo e l'immensamente grande dell'uomo. Per quanto riguarda, ad esempio, l'uso metaforico dei concetti newtoniani all'inizio del 1800 si veda il bel libro di J. Schlanger, Les métaphores de l'organisme, Paris, Vrin, 1971, in paricolare pp.36-45 e 99-108. In più oggi la cultura, attraverso la cibernetica e le scienze tecnologiche ad essa connesse, come la AI e la computerizzazione sta trasferendo la sensorialità  dell'esperienza della comunicazione e del linguaggio in linguaggio digitale, ovvero si stanno traducendo tutte le informazioni in sequenze numeriche. Per quanto riguarda il rapporto della filosofia della natura e le macchine dal 1400 al 1700 si veda anche il celebre libro di Paolo Rossi, I filosofi e le macchine, Milano, Feltrinelli, 1962. Non é un caso fino a buona parte del 1800 il meccanicismo é stato a fondamento anche di una sorta di materialismo 'volgare' che riduceva l'uomo ad una macchina composta da un insieme di parti scomponibili e analizzabili in modo indipendente; ogni aspetto umano doveva essere analizzato secondo i principi della fisica newtoniana ed in particolare per mezzo dei concetti della meccanica. Solo quando con le nuove matematiche, l'evoluzionismo, la nuova fisica, la scoperta di nuovi elementi chimici e l'inizio delle scienze biologiche diedero nuovi impulsi già  alla fine del 1800 alla evoluzione della filosofia della scienza  delle macchine.
[29] Cfr. anche l'altra edizione di norbert Wiener, Cibernetica, Milano, Saggiatore, 1968. La cui definizione é già  presente nello stesso sottotitolo dell'edizione del 1948 di Cybernetics, or Control and Comunication in the Animal and the Machine, Cambridge, Mass., The Tecnology Press of M.I.T., 1948, ovvero la Cibernetica é all'inizio la scienza del controllo e della comunicazione nell'animale e nella macchina, nonché tutta una serie di ricerche storicamente connesse a questi studi sul controllo e sulla organizzazione della comunicazione nell'animale e nelle macchine. Non é da trascurare poi gli studi sviluppati dalla cibernetica della mente, che sono più attinenti al pensiero umano. Queste indagini hanno subito un ulteriore incremento e hanno evidenziato molte differenze con gli altri studi dello stesso periodo. Le ricerche sul corpo sul cervello e sulla mente umana, animale e meccanica hanno trovato nuovi sviluppi specie grazie alla cibernetica. Questa si presentava agli studiosi con ampi e rilevanti riferimenti epistemologici: appariva ricca di spunti logico-matematici; si interessava del dibattito delle scienze, in particolare per la tematica dell'informazione-entropia; aveva una motepicità di suggerimenti per le scienze biologiche e fisiologiche, proprio perché essa si proponeva come «studio della regolazione nelle macchine e negli esseri viventi» [norbert Wiener, Dio & Golem S.P.A. Un commmmento su alcuni punti in cui la cibernetica tocca la religione, Torino, Boringhieri, 1967, p.71]; promuoveva e contribuiiva allo sviluppo sugli studi animali, con il suo desiderio di accostare le macche agli animali; e, infine, come cibernetica della mente essa veniva connessa agli studi psicologici, in quanto era strumento comparativo tra macchina e pensiero umano.
[30] La depolarizzazione si presenta come un fenomeno in cui un messaggio elettrico si trasforma in messaggio chimico, attraverso il passaggio del canale sinaptico a nuovi recettori (quelli conosciuti sono cinquanta, o forse cento). Questi recettori alcuni sono eccitatori altri inibitori allo stimolo percepito per cui alcuni accendondo altri neuroni e chiedono una risposta all'evento; altri inibitori che decidono la poca importanza di una risposta all'evento. Se prevalgono gli influssi inibitori il neurone non é stato depolarizzato a sufficente per accendersi. Se invece prevalgono gli impulsi eccitatori la permeabilità  della membrana ricettiva si apre e crea un impulso nervoso, il quale, conosciuto col nome di potenziale d'azione, fluisce nel cervello senza essere smorzato. La definizione del cervello ci viene da uno dei più autorevoli neuroscienziati viventi Richard Reebok: «Potremmo definire il cervello come il computo totale d'interazione eccitatorie e inibitorie tra tutti i neuroni in ogni istante. Questo bilancio é assolutamente unico in ogni nostra esistenza, ed é alla radice della natura dinamica del cervello. Non solo il cervello di ognuno di noi é unico /anche quelli di genmelli identici /, ma lo stesso cervello non é mai identico a sé stesso, poiché il bilancio tra eccitazione e inibizione muta di continuo». [R. M. Restak, Il cervello modulare, Milano, Longanesi & C., 1998, p. 28]. Si puo' affermare, pertanto, che la depolarizzazione é quel fenomeno elettrico che avviene nelle fibre nervose. Ed in particolare essa si presenta come la perdita della polarità  della carica elettrica tra interno ed esterno della fibra nervosa, dovuta all'apertura di piccoli canali che fanno passare le cariche elettriche dall'interno all'esterno della fibra nervosa, e viceversa. La perdita di polarità , come abbiamo osservato precedentemente, diventa fondamentale affinché questo impulso si propaghi, attraverso il processo sinaptico ad altri nervi con un potenziale d'azione.
[31] Si veda di Jean-Claude Quiniou, Jean-Marc Font, Gérard Verroust, Jean-Marc philippe, Claudine Marenco, I cervelli artificiali, Firenze, Sansoni, 1972, specie il seguente passo: «Che cos'é l'informazione? E' una nozione legata a quella di 'messaggio'. Un messaggio é un fenomeno fisico che ha luogo tra due parti dell'universo di cui una, causa di questo fenomeno, é l'emittente del messaggio e l'altra, modificata da questo messaggio, é la ricevente. Per esempio, in un messaggio vocale il fenomeno fisico é una vibrazione sonora, l'emittente é l'organo vocale (e precedentemente un cervello), la ricevente é un orecchio (e successivamente un cervello): la bocca crea vibrazioni che modificano lo stato dell'orecchio ricevente facendolo vibrare all'unisono. Si dice che un messaggio reca delle informazioni quando il suo contenuto (o la sua forma) era ignorato prima di essere stato emesso. Più grande é la parte ignorata e maggiore é l'informazione. E' evidente. Una spia di temperatura avente soltanto due possibili posizioni, acceso e spento, dà  una quantità  minore di informazioni di un indicatore graduato. Nel primo caso esistevano solamente due possibilità  che l'informazione ricevuta trasmette in certezza; mentre nel secondo caso ce n'erano 20 o 30, a seconda del grado di precisione dell'indicatore, più grande é la scelta tra le varie possibilità , e maggiore é l'informazione che trasforma questa possibilità  in certezza. La teoria dell'informazione permette di formulare delle leggi che, partendo da questa constatazione, danno la misura della quantità d'informazione di un messaggio». p.13.
[32] Cfr. N. Wiener, Introduzione alla cibernetica, Torino, Boringhieri, 1966, specie il capitolo VI «L'individuo come parola» pp. 119-27. Questo libro Wiener lo ha scritto nel 1950.
[33] Bit é un termine informatico che abbrevia la parola «Binary Digit (cifra binaria) e indica l'unità  elementare di informazione con cui opera la memoria di un computer». L. Allori, Dizionario dei mass-media, Milano, Mondadori, 1992, p. 49. Da aggiungere che il calcolatore combina le cifre binarie e ne fa un codice. Questo codice binario, é alla base di ogni sistema che si attiva nel computer; pertanto, tutto viene tradotto in questo codice dalle immagini (questo é oggi possibile grazie ad algoritmi e ai frattali, ovvero con formulazioni matematiche capaci di generare immagini elettroniche) alle parole ai numeri. Infatti il codice binario che comunemente é adottato da tutti i sistemi informatici é costituito da due soli segni convenzionali di base le cifre '0' e '1' «I messaggi in questo linguaggio (parole e numeri) vengono infatti espressi mediante successioni e combinazioni sempre diverse di cifre binarie (BIT), appunto comprendenti solo lo '0'e l'1' allo stesso modo di come le cifre da '0' a '9' sono gli elementi base del sistema di numerazione decimale, quelli con cui si formano tutte le cifre (decine, centinaia eccetera). Il codice binario, naturalmente, non corrisponde a un alfabeto materiale, non si presenta sotto segni grafici, ma é costruito da flussi di elettroni che transitano nei circuiti del computer. Ed é proprio il modo in cui possono passare ed essere trattati questi elettroni che permette di attuare le comunicazioni binarie: infatti, l '0' e l'1' corrispondono a quando il circuito elettrico  aperto, cioé passa corrente, o a quando il circuito aperto é chiuso, cioé non passa corrente: un po' come succede coi punti e le linee nel linguaggio telegrafico, con la differenza che la estrema semplicità  del codice (due soli segni) e la velocità  con cui lavorano i computer permettono una elaborazione dei dati a vertiginosa velocità , inconcepibile con qualsiasi altro linguaggio». Ibidem, p. 83.
[34] Cfr. K. Steinbuch, Automa e uomo, Torino, Boringhieri, 1968, pp.230 e segg.. Questa teoria dell'informazione, la cui unità  di misurazione é il bit, é stata applicata a molti settori di ricerca non solo scientifica, ma anche umanistca. Alcune applicazioni di essa é rilevabile in J. Pierce, La teoria dell'informazione, Milano, Mondadori, 1963. E' chiaro che per completare il circuito, ovvero il sistema elettrico di cui sopra per essere veramente eterofenomenologico, deve, in qualche modo, essere funzionale o dare una risposta al messaggio ricevuto. Dopo che l'informazione é passata nell'altra struttura, che é stata riconosciuta, controllata ed eventualmente elaborata o adeguata al proprio sistema, la cosa importante diventa che colui che fa l'operazione, sia esso uomo o macchina, deve essere fornito di una unità  di uscita per rintrodurre le informazioni nella rete sociale delle altre 'macchine'. (Si aggiunge qui che a questa nuova socialità  appartengono non solo le macchine umane, ma anche le macchine computazionali vengono dotate oggi di una unità  di trasformazione dell'energia elettrica in azione verso l'esterno con l'applicazione di trasformatori di energia ad esempio in energia cinetica, meccanica, ecc. /da queste prime e rudimentali applicazioni sono nate le prime recentissime macchine computerizzate autonomamente operative). Uno dei primi nel mondo moderno a dare una nuova visione fisiologica del corpo come macchina é il medico e filosofo materialista Julien Offroy de Lamettrie, la cui opera L'uomo macchina (Leida, 1748) gli procuro' non pochi problemi da parte di fanatici religiosi sia in Francia che in Olanda. Solo a Berlino presso il re Federico II, filosofo e protettore di filosofi e delle arti, trovo' asilo. Durante la sua breve permanenza a Berlino, prima della morte, scrisse altre brevi ma importanti opere come L'uomo pianta (1748) Gli animali più che macchine (1750). In italiano si veda il testo J. O. de Lamettrie, L'uomo Macchina e altri scritti, Milano, Feltrinelli, 1973, che oltre alla Dedica. Al Signor Haller, professore di medicina a Gottinga, il su citato L'uomo Macchina, e L'uomo pianta , contiene anche l'Antiseneca ossia Discorso sulla felicità  (1750).
[35] A tal proposito si noti la breve evoluzione del pensiero scientifico e le sue ripercussioni sull'agire e sull'evoluzione dell'uomo tracciata da Ervin Laszlo a partire dalla teoria costituitasi con le scienze della complessità . «Le scienze contemporanee della complessità  studiano invece la comparsa, lo sviluppo e il funzionamento dei sistemi complessi indipendentemente dall'ambito di indagine al quale essi appartengono. Queste scienze hanno avuto origine con la teoria generale dei sistemi / i cui antesignani furono von Bertalanffy, Paul Weiss, Anatol Rapoport, e Kennet Boulding / e con la scienza cibernetica sviluppata da Wiener, Asby e Beer. Dopo il 1970 a queste scienze si sono aggiunte / con un effetto di rafforzamento reciproco / la termodinamica di non equilibrio, opera di Katchalsky, di Prigogine e dei loro collaboratori, e la teoria dinamica dei sistemi, un ramo della matematica teorica che é stato sviluppato da Thom e più recentemente da Shaw e da Abraham». (E. Laszlo, Evoluzione, Milano, Feltrinelli, 1986, p. 31.) Ed é evidente come questi campi di indagine scientifica hanno fornito e fatto sviluppare, con altri campi di indagine, le basi più logiche per la spiegazione del nuovo paradigma evolutivo sia delle macchine (cibernetica) che del governo dei sistemi umani (noetica). Sul rapporto cibernetica e noetica si veda Giovanni B. Scuricini e - Maria Luisa Scuricini, Cibernetica e noetica, Firenze, Sansoni Editore nuova SpA, 1975. Mi preme qui ricordare come il termine noema venne usato nella fenomenologia di Husserl per indicare l'aspetto oggettivo dell'esperienza vissuta, cioé l'oggetto considerato dalla riflessione nei suoi vari modi di essere dato. Esso si distingue dall'oggetto stesso che viene detto cosa.
[36] Si veda a tal proposito Gennar Luigi Linguiti, Macchine e pensiero, Milano, Feltrinelli, 1980, pp.48-49.
[37] Cfr. Gianfranco Bettetini, La simulazione visiva, Milano, Bompiani, 1991.
[38] N. Wiener, Introduzione alla cibernetica, op. cit., p. 29.
[39] Norbert Wiener, Julian Bigelow e Arturo Rosenblueth, Behavior, Purpose and Teleology, in «Philosophy of Science», X, 1943, pp. 18-24; tr. it. Comportamento, fine e teleologia, in Dio & Golem S.P.A., op. cit., p. 101.
[40] N. Wiener, Introduzione alla cibernetica, op. cit., p. 180.
[41] Ibidem, p. 180.
[42] Il riferimento é all'assunto antropologico del sociologo Lewis Mumford. Tra le importanti opere tradotte in italiano si ricordano di L. Munford, Il mito della macchina, Milano, Il Saggiatore, 1969; Tecnica e Cultura, Milano, Il Saggiatore, 1961; Arte e tecnica, Milano, ed di Comuntà , Milano, 1952; Tecnica e civiltà , Milano, Il Saggiatore, 1972; Il pentagono del potere, Milano, Il Saggiatore, 1973; Il futuro della città , Milano, Il Saggiatore, 1972; La condizione dell'uomo, I e II, Milano, Bompiani, 1977; La città  nella storia, I, II, III, Milano, Bompiani, 1977 (Milano Etas Kompass, 1964). Egli, allievo di Patrik Geddes, é stato tra i primi in questo secolo a legare e a fare una storia di arte e tecnica della evoluzione umana dando una singolare definizione di utensile e di macchina.
Al cervello sovrasviluppato Mumford attribuisce la trasformazione dell'energia in forme simboliche. L'utensile più importante dell'uomo fu per lui il corpo-mente: «più importante di ogni sua successiva invenzione: un corpo che la mente rendeva attivo in ogni sua parte, comprese le membra che costruivano mazze, scuri o frecce di legno. La risorsa umana più importante che rendeva sterminato tutti gli sviluppi del suo orizzonte tecnico fu proprio quell'«equipaggiamento biologico ben più ricco di qualsiasi altro animale, un corpo non specializzato in un'attività  particolare e un cervello capace di esplorare un ambiente più vasto e di tenere unite tutte le componenti della sua esperienza. Proprio per questa plasticità  e sensibilità  straordinarie, egli fu in grado di utilizzare una parte maggiore sia del suo ambiente esterno sia delle proprie risorse piscosomatiche». Ma egli va oltre, pone su un piano diverso lo sviluppo della tecnica con lo sviluppo della macchina: «le macchine si sono sviluppate da un complesso di fattori inorganici destinati a trasformare l'energia, a compiere un lavoro, ad aumentare le capacità  meccaniche o sensoriali del corpo umano oppure a ridurre ad un ordine regolare e misurabile il fenomeno vitale. Il Robot é l'ultimo passo di un cammino che é cominciato con l'uso di questa o quella parte del corpo umano come utensile. Dietro lo sviluppo degli utensili e delle macchine é il tentativo di modificare l'ambiente, in modo da rafforzare e sostenere l'organismo umano; lo sforzo tende o ad allargare le possibilità  di un organismo che sarebbe altrimenti inerme, o a costituire fuori di esso una serie di condizioni più favorevoli al mantenimento del suo equilibrio, ed alla continuazione della sua esistenza. In luogo di un adattamento fisiologico al freddo, come sarebbe la crescita del pelo o l'abitudine alla ibernazione, vi é un adattamento all'ambiente, ed esterno, quale adozioni di vestiti, e la costruzione dei ripari». [L. Munford, Tecnica e Cultura, op. cit., pp. 25-6]. Il discorso di Mumford continua in questo libro, che sebbene pubblicato in Italia nel 1961 é del 1934, con la distinzione tra utensile e macchina con l'aggiunta delle macchine-utensili e la loro programmazione e gli sviluppi di queste con il loro utilizzo pratico e sociale. Sia le macchine-utensili che le macchine sono analizzate come organismi minori, per compiere determinati tipi di funzioni; anzi molti strumenti tecnici sono stati considerati «grossolanamente» macchine. Comunque é difficile dover fare una distinzione netta di alcune suppellettili con alcune macchine, per cui é errore parlare solo di quelle dimenticando le altre o viceversa. Munford, per maggior chiarezza, afferma che «Occorre ricordare che entrambi i gruppi hanno rappresentato una parte enorme nello sviluppo del mondo moderno, e non é possibile separare i due gruppi in nessun periodo della storia. Ogni complesso tecnologico li include entrambi; cosi' pure il nostro moderno». [Ibidem, p. 27]. Tutte le macchine e le scoperte scientifiche sono in connessione perché l'uomo sviluppi un maggiore controllo sull'ambiente. A questo punto Mumford propone una distinzione tra «macchina» e «la macchina» prima del suo excursus teorico: «D'ora in avanti quando useremo la parola macchina, ci riferiamo ad oggetti specifici, come la pressa da stampa o il telaio meccanico. Quando useremo l'espressione 'la macchina', la impiegheremo invece come accenno sintetico all'intero complesso tecnologico. Questo comprenderà  le conoscenze, le capacità  e le arti che derivano dall'industria, o che sono incluse nelle nuove tecniche, e comprenderà , oltre alla macchina vera e propria, vari tipi di apparati, suppellettili, strumenti ed impianti».[Ibidem, pp. 27-8]. Questo tipo di distinzione operata da Munford per il concetto di «macchina», ha avuto bisogno di nuove forme coeve proposte dalla tecnologia prima elettrica e poi elettronica e dal nuovo mondo della organizzazione delle informazioni nelle macchine e negli automi. Le differenze tecnologiche che intercorrono tra la struttura della macchina dell'industria e il suo complesso tecnologico fino agli anni '50 e quella attuale sono abissali. Esse vertono sulla operatività  e sulla autonomia della informazione dell'AI applicata alla «robotica».
[43] L. Munford, Tecnica e Cultura, op. cit., p. 15.
[44] Cfr. N. Wiener, Introduzione alla cibernetica, op. cit., p. 179. Sembra quasi che il termine cibernetica sia stato scelto da Winer per le innovazioni apportate dal cronometro nautico e dalle tavole di navigazione all'arte della navigazione. Il cronometro nautico «cioé  un orologio costruito con precisione e con le caratteristiche di autocompensazione necessarie per segnare il tempo con un errore di pochi secondi, nel corso di un viaggio alla industria della nave. L'altro fu la stesura di precise tavole matematiche concernenti i movimenti della luna, per permettere al pilota di servirsi del satellite come di un orologio con il quale controllare l'apparente movimento del sole. Questi strumenti hanno dominato la scienza della navigazione fino ai recenti sviluppi della radio e del radar».
[45] A tal proposito si veda Isaac Asimov, Cronologia delle scoperte scientifiche, (?), Pan S.r.l., 1991, pp. 393 e 394. L'autore parla del perfezionamento del telefono da parte di Edison, dopo il brevetto di Bell, con una imboccatura contenente polvere di carbonio.
[46] Oggi il computer é diventato sistema importante della macchina bellica. Le guerre si iniziano a fare con robot volanti carichi di esplosivi o con bombe intelligenti; nel mare ci sono mine che si attivano alla presenza del bersaglio programmato. Tutti questi ordigni sono divenuti indipendenti, una volta attivati, si scelgono il percorso per reggiungere il loro bersaglio. I calcolatori, che costano sempre meno e sono sempre più efficienti, oggi possono gestire tutto su di un aereo o su di una nave, l'uomo é quasi un ingombro di gran lunga più costoso della tecnologia impiegata. Le decisioni comunque spettano sempre agli uomini. Ad esempio «Un missile Cruise é in sostanza un bombardiere robotico. E' come un bombardiere con pilota, ma, rispetto a questo, é più piccolo, costa meno, é meno visibile ed é estremamente preciso. Grazie al collegamento radio tra i suoi calcolatori e una rete di satelliti che copre l'intera superficie terrestre, il missile puo' conoscere in ogni momento la sua esatta posizione; possiede inoltre particolareggiate mappe elettroniche di dove é diretto. Come un segugio tutto teso a tener dietro una pista, puo' colpire un bersaglio a più di duemila chilometri di distanza con un'approssimazione di pochi metri. da una terrazza a Los Angeles potrebbe colpire la porta di un garage a Dallas». Sta in Greory J. E. Rawlins, Le seduzioni del computer, Bologna, il Mulino, 1997, p. 111. Per le tecnologie usate nelle varie guerre da quelle delle Falkland, con gli Excet, alle mine nella guerra del Golfo Persico o al raid contro la Libia con aerei robotici e sul futuro di militari al silicio, si veda l'intero cap. V, «La guerra dei robot», pp. 109-38.
[47] Vannevar Bush é considerato universamlmente il padre dei nuovi media comunicazionali. Nel 1945, quando era direttore dell'Office of Scientific Reserche and Development for the U. S., l'Ufficio per la Ricerca Scientifica e lo Sviluppo per l'impegno bellico statunitense, egli pubblico' un articolo su «Atlantic Monthly» dal titolo Come si potrebbe pensare. Quest'articolo fece un grande scalpore ed é stato uno di quelli più citati in campo scientifico. (In Internet «esiste anche una pagina Web» a lui dedicata dove si possono reperire i testi e le foto «di questo autore carismatico»). «Bush inizia con una domanda: /Che cosa faranno gli scienziati nel futuro?/. Il testo dunque prosegue con l'anticipazione del fax, della fotocopiatrice, della macchina fotografica polaroid, del microfilm, del riconoscimento vocale e della tanto annunciata macchina capace di trascrivere un discorso, del personal computer, della multimedialità e degli ipermedia. L'articolo presenta anche l'allettante passaggio della realtà  virtuale». Sta in John Green, La nuova frontiera delle comunicazioni, Milano, Mondadori, 1998, pp. 52-3.
[48] Charles Babbage (1792-1871) fu un grande matematico, di orgine inglese. Molti dei suoi risultati sulle macchine calcolatrici furono presentati in un volume dal titolo Economy of Machines and Manifactures, London, 1834. Babbage fu anche il primo a introdurre lo studio della mente attraverso modelli meccanici. Egli aveva inventato la macchina analitica, che fu una elaborata macchina di calcolo che anticipava i principi di funzionamento del calcolatore programmabile. Un secolo più tardi Alan Turing perfeziono' l'idea di Babbage formulando la teoria del calcolatore digitale cosi' come noi la conosciamo. Il calcolatore ci permette di verificare concettualmente la correttezza dei modelli proposti: supponendo che un dato comportamento possa essere funzione di un determinato modello strutturale, senz'altro si potrà  programmare un calcolatore che sia in grado di simulare quel comportamento preso in esame. Se quel modello é corretto, il comportamento corrisponderà  a quello reale. Turing suggerisce che per ora le macchine sono subcritiche, ma é solo una questione di complessità . Se si oltrepassa la soglia della complessità  compare una differenza qualitativa. Le macchine immaginate finora non superano questa soglia ma egli prevede che in un futuro prossimo, si costruiranno macchine supercritiche che saranno del tutto diverse da queste semplici progettate ancora attualmente. Egli ammette che un giorno si possa costruire una macchina più complessa del cervello, per cui di gran lunga più intelligente. Infatti egli afferma che il mondo della complessità  non esclude che questo possa accadere.
[49] Mi riferisco a quanto ha affermato poco più di un quinquennio fa uno dei massimi studiosi del cervello umano, il neuroscienziato Richard M. Restak. E' bene qui ricordare che la neuroscienza sta modificando radicalmente sia il modo di avvicinarsi allo studio della mente e del cervello, sia il modo di avvicinarsi allo studio delle sue confugurazioni e funzioni. Ad esempio un fatto acclarato per i neuroscienziati é che «la memoria non é una: é molteplice; non é una 'cosa', ma una associazione di sistemi interattivi, con funzioni diverse, che operano in tutto il cervello a vari livelli di complessità ». [R. M. Restak, Il cervello modulare, op. cit., p. 129]. Oppure si crede nel superamento della psicoanalisi, come l'aveva individuata Freud: «Freud parlo' di inconscio riferendosi ai processi che influenzano il comportamento e non superano la soglia della coscienza. Tuttavia, il suo contributo pati' di credibilità  soprattutto per la convinzione che l'inconscio sia una specie di calderone in cui ribollono istinti primari repressi e inibiti, come l'aggressività  e il sesso. Ma questo non é vero: i pazienti dal cervello diviso rimangono 'incoscienti' di situazioni per nulla correlate al sesso o alla violenza. I neuroscienziati parlano di 'inconscio cognitivo'', di cui abbiamo visto vari esempi nel nostro viaggio all'interno del cervello modulare (agnosia e memoria implicita, per citarne due)». [Ibidem, p. 183]. Altre cose si puo' dire sulla coscienza e sui moduli oggettivi e soggettivi ad essa correlati. Ad esempio, facendo riferimento al principio di indeterminazione di Heisemberg nel misurare una particella subatomica, Restak afferma che non si puo' conoscere contemporaneamente qual é la posizione / o qual é il momento preciso /in cui iniziamo a lasciare il mondo soggettivo e passiamo a descrivere e ad interessarci del mondo oggettivo. [Si vedano le mirabili pagini Ibidem, pagg. 188-89 e segg.]
[50] N. Wiener, Introduzione alla cibernetica, op. cit., p. 192.
[51] Wiener paragonando il meccanismo umano alla macchina cosi' si esprime: 
«E' mia convinzione che il comportamento degli individui viventi é esattamete parallelo al comportamento delle più recenti macchine per le comunicazioni. Entrambi sono forniti di organi sensori di recezioni che agiscono come primo stadio del ciclo di funzionamento: in entrambi esiste, cioé un apparato speciale per raccogliere informazioni dal mondo esterno a bassi livelli di energia, e per renderle utilizzabili nel comportamento dell'individuo o della macchina. In ambedue i casi questi messaggi esterni non sono utilizzati al loro stato naturale, ma dopo un processo interno di trasformazione operato dalle forze dell'apparato. 
Le informazioni sono tradotte quindi in una nuova forma utilizzabile dagli stadi successivi del funzionamento. Sia negli animali che nelle macchine cio' deve tradursi in un'azione effettiva sul mondo esterno. In entrambi l'azione eseguita sul mondo esterno, e non mera intenzione, viene comunicata all'apparato centrale regolatore. Questa complessità  del comportamento é ignorata dall'uomo della strada, e quindi la coscienza di essa non interviene con tutto il suo peso e la sua importanza nella nostra abituale analisi della società . Cio' é vero non soltanto se consideriamo gli esseri umani isolatamente, ma anche in rapporto a quei tipi di automi che sono in duplice relazione col mondo esterno». Ibidem, pp. 29-30.
[52] Ibidem, , p. 198.
[53] Renzo Rosei, Tra ricerca di base e applicazioni tecnologiche, (testo a cura di Laura Bodini) sta in AA. VV., La materia condensata, Napoli, CUEN, 1994, pp. 29-42.
[54] Ibidem, p. 35.
[55] Ibidem.
[56] Ibidem, p. 41.
[57] Cfr. A. Portmann, Illuminazione e apparizione dei viventi, sta in Le forme viventi, Milano, Adelphi, 19892 , pp. 45-73. Egli noto' che in biologia si stava costituendo una nuova teoria delle forme visibili, che legavano la struttura dell'occhio alla forma visibile. Il riconoscimento sensorio é cosi' una delle forme individuative della specie. Portman, in una conferenza del 1956, auspicava una ricerca, che partendo dalla zoologia, sviluppasse una scienza autonoma legata alle discipline biologiche: la fanerologia. La luce assume un ruolo determinante nella esperienza della vita e della specie nonché nella organizzazione del mondo e nella relazione con l'ambiente. A partire dall'interpretazione di certi elementi del corpo animale che alcuni trattati chiamano fanére (dal greco phaneros = manifesto) nasce la nuova scienza. Questa manifestazione é letta in ogni ambito sensoriale in base al riconoscimento ed alla organizzazione. Per Portmann il manifestarsi é legato al termine linguistico in tedesco Erscheiung (apparizione, fenomeno) per cui la fanerologia si proporrebbe come una scienza che deve andare ben oltre le osservazioni di percezione ottica, anzi deve coivolgere anche altri aspetti quali quelli spirituali dell'Erleuchtung (illuminazione) che hanno la stessa radice linguistica. Luce, organizzazione del mondo e linguaggio vanno di pari passo nella biologia auspicata da Portmann, dove c'é concordanza tra struttura interna e quella esterna cosi' come già  evidenziato dalla fanerologia influenzata dalle ricerche delle scienze etologiche. Egli afferma che «Lo studio del singolare rapporto dei viventi con la luce pone alla biologia nuovi interrogativi. Le ricerche sui diversi modi di produzione del colore negli organismi riceveranno nuovi impulsi da queste premesse». E più oltre egli auspica che la biologia «deve riconoscere e adottare una concezione in cui il rapporto con il mondo determinato da una misteriosa interiorità  e l'autopresentazione di questa stessa interiorità  valgano come proprietà  primarie della vita, proprietà  che, unitamente all'autoconservazione, all'evoluzione individuale e alla trasformazione della specie, ne definiscono la totalità ». Quanto detto comporta una nuova concezione di organismo che implica una organizzazione biologica e linguistica in relazione con se stesso e la specie, nonché con l'ambiente in cui si sviluppa; per cui questo autore puo' poi affermare che «Le nostre osservazioni riguardavano il rapporto dei viventi con la luce. Questa 'chiarità', la luce, é in effetti il potente veicolo dei nostri rapporti con il mondo e come tale é inserita nelle strutture fondamentali dell'umano. Che la parola 'illuminazione' é più che una metafora poetica, che l'illuminazione ha una parte rilevante nella formazione degli esseri viventi: questo volevamo provare con la nostra incursione nel mondo degli organismi. Mostrare nella pianta come nell'animale, i nessi tra illuminazione e apparizione, anche questo puo' essere un contributo alla cognizione dell'essenza umana». La prima citazione tra virgolette é a p. 72. La seconda e la terza sono a pagina 73
[58] Si veda a tal proposito l'articolo a firma di Salvatore Romagnolo uscito sull'inserto Tutto scienze de La stampa del 28 luglio 1999 o si visiti il sito Internet dell'Applied Chaos Laboratory:

http://65.54.246.250/cgi-bin/linkrd?_
lang=FR&lah=bc9cbf8b5486b644d7a9362696a756a0&lat=1065876601&hm___
action=http%3a%2f%2fwww%2ephysics%2egatech%2eedu%2fchaos%2f.

[59] Si veda a tal proposito il testo di Carven Mead, Analog VLSI and Neural System, Addison Wesley Pubblishing, 1989.
[60] Si veda a tal proposito gli articoli, con la relativa bibliografia, apparsi sulla rivista «Le Scienze», edizione italiana di Scientific American, l'uno di Guido Romeo, Biochip: il DNA sulla punta di un dito, in «Le scienze», n. 362, Milano, ottobre 1998, e di Marco Bove, Michele Giugliano, Massimo Grattarola e Sergio Martinoia, Reti bioartificiali di neuroni, in «Le scienze», n. 375, Milano, novembre 1999.
[61] Il termine robotica é stato inventato da Isaac Asimov nel racconto Luciscultura del 1939. Egli cosi' afferma nella introduzione: «I miei primi racconti su qusto tema risalgono al 1939. A quell'epoca avevo diciannove anni e già  consideravo i robot come semplici frutti della tecnica, dotati di meccanismi di sicurezza interni che avevo battezzato 'Le Tre Leggi della Robotica'. E cosi' fui il primo a fare uso della parola robotica in un testo scritto, per la precisione in un racconto che apparve nel numero di Astounding Science Fiction del marzo 1942. Ma fino alla metà  degli anni Settanta, quando incominciarono a diffondersi i microchip, i robot non furono realizzabili. Soltanto con l'avvento dei microprocessori, i computer /pur mantenendo l'indispensabile capacità  di calcolo e versatilità  / divennero abbastanza piccoli ed economici da permettere di realizzare un robot con una spesa che non fosse proibitiva. Oggi nell'industria si utilizzano macchine controllate da computer, e queste macchine vengono chiamate robot. Sempre più frequentemente, ai robot vengono affidati compiti semplici e ripetitivi nelle catene di montaggio (saldare, trapanare, lucidare e cosi' via); essi rivestono un'importanza sempre maggiore nell'economia mondiale. I robot oggi rappresentano un preciso campo di studio e per dare un nome alla scienza che li riguarda é stata usata proprio la parola che ho inventato io: robotica». I. Asimov, Sogni di robot, Milano, Tea, p.7. Si veda come lo stesso autore riporta in modo più articolato la nascita del robot e ne anticipa gli attuali sviluppi, grazie anche alla sua inclinazione di divulgatore scientifico, si veda il testo I. Asimov, Il libro della biologia, Milano, Mondadori, specie pp. 384-9.
Il termine robot, invece, é dello scrittore ceco Karel Capek (1890-1938). Egli, nel suo celebre dramma Robot, del 1920, faceva agire le creature con funzioni «automatiche», come se fossero uomini artificiali, calando tuttavia in essi il senso umano del lavoro (robota). Il robot, nell'intenzione dello scrittore, simula le attività  umane esteriori senza duplicare al tempo stesso il comportamento interno. Il robot di Asimov é già  un «ente artificiale» a sé stante che ha una vita quasi indistinguibile da quella umana; mentre per Capek il robot erano congegni comportamentali che rientravano ancora nella sfera imprecisata tra l'uomo e la categoria normale delle macchine. I meccanismi macchinici, in Capek, va ricordato, erano ancora proprietÃà derivanti da una spersonalizzazione di alcuni comportamenti umani; mentre in Asimov il robot viveva secondo propri principi autonomi, anche se fissati / o trasferiti / attraverso i modelli mentali stabiliti dal costruttore umano e mostrando il più delle volte intelligenza superiore all'umano. Ecco come delle macchine che possono compiere operazioni logiche e matematiche / o attraverso dei sensori riconoscono le differenze esterne attivando dei dispositivi operativi / sono oggi realmente differenti dalla macchina a vapore, dalle presse tipografiche o dai telai automatici.
[62] Cfr. per l'eterofenomenologia specie D. C. Dennett, Coscienza, Milano, Rizzoli, 1993, o il mio intervento al convegno nazionale di Estetica, a Gargnano, dal titolo «Estetica, physis, e organizzazione delle informazioni», dell'ottobre 1999, sta negli Atti del Convegno Nazionale dell4AISE 1999 dal titolo Le radici filosofiche dell'estetica, Torino, Edizioni Trauben, 2000, o il mio testo G. Siano, Estetica e cibernetica, Salerno, Palladio, 1994.
[63] M. Minsky, La società  della mente, Milano, Adelphi, 1989.
[64] Gregory Bateson, Mente e natura, Adelphi, Milano, 1984.
[65] Penso alle prime importanti ricerche di H. Maturana e F. Varela, Autopoiesis: Reproduction, heredity and evolution, in M. Zeleny (a cura di), Autopoiesis, dissipative structures and spontaneous social orders, Westview Press, Boulder, Colo., 1980. In italiano sono stati tradotti gli ormai celebri: Autopoiesi e cognizione, Venezia, Marsilio, 1985, e L'albero della conoscenza, Milano, Feltrinelli, 1987. In questi testi, specie l'ultimo citato, i due autori hanno rinunciato al concetto di «essere» per quello di «sistema biologico vivente».
[66] Barilli ha per primo evidenziato, in Italia, come la presenza dell'esperienza estetica oggi vada intesa come esperienza sensoriale. La sua estetica prende le mosse da McLuhan (dove le tecnologie sono estensioni del corpo) e dalla convinzione che nel passato l'artista concentrava nei suoi prodotti una certa cifra della propria sensorialità , mentre il resto era smarrito a causa di censure morali o di impossibilità  di registrazione. Gli atteggiamenti culturali mutati e un maggiore dilagare della sensorialità , grazie alla nuove tecniche attraverso cui si producono opere (fotografia, video), hanno prodotto il dilatarsi delle esperienze estetiche fino allo sciogliemento. Barilli cosi' definisce l'operatore estetico del futuro «animatore della superficie estetica della comunità / massaggiatore del sensorio comune». Coloro che producono arte come coloro che la insegnano, assumono il ruolo di «funzionari pubblici delegati a maneggiare il sensorio collettivo». Cfr. l'intervento di R. Barilli, sta in U. Eco, G. Vattimo, Th. Maldonado, L. Ricci, G. Guglielmi, L. Veronesi, G. Dorfles, R. Barilli, M. Perniola, Corso in nove lezioni all'Accademia Clementina , Bologna, Cappelli, 1977.
[67] T. S. Kuhn, La struttura delle rivoluzioni scientifiche, Torino, Einaudi, 1978.
[68] L. Munford, Il mito della macchina, op. cit., pp.18-9.
[69] Sta in L. Munford, Tecnica e Cultura, op. cit., pp.72-3.
[70] Philip K. Dick, VALIS, sta in La trilogia di VALIS, Milano, Mondadori, 1993, p. 95.
[71] Ibidem, p. 94.
[72] Cfr. R Thomas, Kinetic Logic, Berlino, Springer Verlag, 1979.
[73] F. Folgelmann-Souilié, Colloque sz Cerisy, Parigi, Ed. du Seuil, 1983.
[74] Questo artista é un rappresentante della bioestetica (o biopoetica) di cui Wilson e altri studiosi fin dagli anni Ottanta hanno tracciato, come abbiamo visto nella relativa nota bibliografica, i rapporti tra scienze e interpretazione delle arti. Di Eduardo Kac si veda «Genesis» e «Transgenic Art», in Atti del Simposio LifeScience, a cura di G. Stocker, C. SchÃmpf, New York, Springer Wien, 1999. (Un grazie alla amica, dott.ssa Diana Danelli, che mi ha segnalato queste pubblicazioni).
L'arte genetica e transgenica é proposta artficialmente da Kac attraverso videocamere applicate ad un microscopio elettronico. Alcune delle molecole vengono estrapolate per notare come si forma la varietà  informativo-comunicazionale e come nasce il contesto e la storia in embriologia. Cio' diventa chiaro se si segue l'esperienza di Edelman quando indaga su come emerge un modello a partire dalle prime attività  delle cellule. Il riferimento palese é alle CAM (cell adhesion molecules) che cementano funzioni e adesioni e trasporti di organizzazioni e percorsi di informazioni molecolari nelle cellule. Edelman ne individuo' allora tre, e molte altre furono poi scoperte in seguito. Due si presentano molto presto durante lo sviluppo embrionale e sono la L-CAM, che fu trovata per la prima volta nel fegato (liver), e la N-CAM, chiamata cosi' perché fu trovata per la prima volta in associazione col tessuto nervoso. Esse si organizzano e si dispongono in gruppi neuronali e si dispongono in modo da modificare dei muri in pareti con strutture e confini visibili, comunicanti, i cui confini hanno un interscambio con cio' che si forma all'esterno, ma sempre in modo che non si alteri la struttura organizzativa, proprio come potrebbe ad esempio accadere in una facciata di un edificio con le finestre. «La struttura molecolare delle CAM é determinata da geni particolari. E all'inizio dello sviluppo dell'embrione, altri geni determinano quando debbano essere prodotte le CAM. L'esatta quantità  e 'adesività ' delle CAM (che variano continuamente nel corso dello sviluppo dell'embrione dipendono pero' dalla posizione presente e passata delle cellule che le trasportano, e la posizione della singola cellula non é soggetta a un diretto controlo genetico. La disposizione dei gruppi di cellule che sono connesse assieme ad un tipo di CAM varierà  percio' persino in individui geneticamente identici. Questi gruppi di cellule inviano segnali che attivano e disattivano geni delle CAM, oltre ad attivare e a disattivare l'azione dei geni che specificano la specializzazione cellulare. L'intera sequenza per mezzo della quale ha luogo la differenziazione é determinata non direttamente da geni ma indirettamente dall'azione combinatoria di geni e segnali da parte di gruppi di cellule che attivano geni, ed é percio' chiamata epigenetica. Le cellule connesse in gruppi per mezzo di L-CAM formano confini con altre cellule connese in altri gruppi per mezzo di N-CAM. I confini sono una conseguenza del fatto che i due tipi di molecole non aderiscono fra loro. Edelman e colleghi hanno mostrato che le cellule da un lato del confine si trasformeranno successivamente in cellule più specializzate di un tipo, e quelle dell'altro lato del confine diventeranno cellule specializzate di un altro tipo. Nel corso dell'intero sviluppo embrionale si formeranno di continuo confini fra cellule che sono connesse fra loro da CAM diverse, e dopo la formazione dei confini le cellule svilupperanno le loro specializzazioni. Man mano che le cellule continuano a differenziarsi, si formano nuovi confini di CAM, prima che nuovi mutamenti siano introdotti da segnali inviati da gruppi di cellule ai geni che attivano sia le CAM sia i geni che specificano la specializzazione cellulare. A seconda della storia passata dei due gruppi di cellule, i segnali scambiati al confine fra gruppi di cellule N-CAM e di cellule L-CAM determineranno la successiva formazione di tipi di cellule molto diversi a ciascun lato del confine. La funzione del confine fra gruppi di cellule CAM diverse dipende quindi dal contesto: dalle cellule circostanti e dalla storia passata delle cellule. In generale, inoltre, le regole che governano la risposta delle CAM sono simili sia per i neuroni del cervello sia per le altre strutture dell'organismo. Poiché i confini dei gruppi di cellule dipendono dalla dinamica dello sviluppo, ci saranno variazioni individuali non determinate solo da geni e la cui diversità  assicurerà  il possesso a cervelli diversi di strutture diverse. Eppure i modelli generali formatisi, e le sequenze grosso modo simili dello sviluppo embrionale spiegheranno perché i singoli cervelli dei membri di una specie siano simili fra loro». Da Israel Rosenfield, L'invenzione della memoria, Milano, Rizzoli, 1989, pp. 195-6.
E cio' che ci mostra Kac nella sua arte biologica é questo continuo spostarsi dei confini e di organizzarsi e scambiarsi segnali tra molecole in base al loro costituirsi in gruppo cellulare. Questa dimostrazione della evoluzione della organizzazione delle molecole palesa che ci sono ragioni proprio molecolari per cui due cervelli non potrebbero essere mai identici, in quanto il cervello funziona come un sistema dotato di selezione ed il meccanismo delle CAM pone una serie di connessioni anatomiche del cervello di un individuo, il quale ha miliardi di miliardi di miliardi di connessioni. In questo processo é importante il contesto e la storia delle organizzazioni cellulari che determinano la struttura e il funzionamento del cervello. Kac, attraverso microscopi elettronici su cui vengono piazzate delle telecamere, ci palesa, pertanto, che anche nel contesto di un artificio simulativo, le organizzazioni molecolari, specie se relative alle funzioni cerebrali, si raggruppano in base al contesto, alle inferenze, alla predisposizione e alla storia comportamentale. La scelta architettonica della disposizione in strutture molecolari CAM per i passaggi di informamazioni alle cellule é frutto della contestualità  e della organizzazione e «poiché sviluppo, struttura e funzione sono correlati, non sarebbe sorprendente se si trovasse che le attività  funzionali di un gruppo di cellule cerebrali connese tra loro dipendono sia dalle attività  di gruppi cellulari contigui sia dalla storia passata di quel particolare gruppo di cellule». Ibidem, p. 197.
[75] Cfr. G. Siano, Arte e informazione cibernetica ovvero: dell'arte come «bene culturale», relazione letta al convegno di Urbino nel settembre 1999, in parte pubblicata negli Atti della ricerca di sociologia dell'arte sui critici d'arte italiani, promossa dall'ESSAD, le cui conclusioni sono nel volume (a cura di) Danila Bertasio e Giorgio Marchetti, Fra ombre ed autoritratti, Milano, Franco Angeli, 2000, pp.372-81, la citazione é alle pp. 380-1.
[76] John Green, La nuova frontiera delle comunicazioni, op. cit., p.21. é ormai chiaro che qui si intende per digitale, non il dito ma il calcolo computazionale. Infatti il termine inglese digit, ha un duplice significato: sia dito che cifra.
[77] L'estetica della comunicazione, grazie alle problematiche evidenziate in Italia da Mario Costa, é da considerarsi come la prima ibridazione di un processo comunicativo tra macchine e viventi che modifica (a) sia il sistema della ricezione che quello della cognizione dei viventi; (b) studia prevalentemente questo processo comunicativo nella trasformazione tecnologica del mondo artistico; (c) trova le origini filosofiche del cambiamento e riflette sui possibili (o impossibili o, anche, come penso, «modulari») «contenuti» o, meglio, «strutture» organizzative dell'estetico, attraverso i dispositivi.
[78] La personetica, la scienza che studia i personoidi, altrimenti detta teogonia sperimentale, ha già  fatto la sua apparizione. Il suo nome accomuna un termine di derivazione latina ed uno greco: «persona» e «genetica» (questo proprio nel suo significato di formazione o creazione). E' una diramazione della cibernetica e della psiconia degli anni ottanta. Si rivolge a costruire artificialmente gli «esseri» intelligenti. Un commento a questa scienza sta nel capitolo La personetica in G. Siano, Estetica e cibernetica, op. cit., pp. 83-96.
[79] Sta in George Johson, La Mente e la macchina, Milano, IHT gruppo Editoriale Srl, 1990, p. 47.
[80] Cfr. il romanzo di Bioj Casares, L'invenzione di Morel, Milano, 1979.
[81] Si veda a tal proposito le nuove analisi estetico-filosofiche a partire dal letterario, dalla 'fiction' figurativa della pittura vascolare, / fino alla ormai quasi superate tecnologie della stampa della fotografia della macchina da scrivere ecc. per l'avvento delle neo-tecnologie elettro-elettroniche, che fa Mario Costa attraverso i dispositivi, specie in Mario Costa, L'Estetica dei media, Avanguardie e tecnologia, Roma, Castelvecchi, 1999.
[82] Si veda il mio già  citato intervento a Urbino del settembre 1999 dal titolo Arte e informazione cibernetica ovvero: dell'arte come «bene culturale» .
[83] La prima opera d'arte venduta in Europa, con codice criptato, e visitabile solo con una passworld in Internet, é stata dell'artista tecnologico Fred Forest, nel 1998.
[84] I biologi, i fisici, i medici e gli scienziati cognitivisti delle nuove frontiere studiano e definiscono l'uomo come una delle tante organizzazioni biologiche viventi. Studiare la struttura vivente significa voler indagare sul percorso cognitivo che si vuole individuare, sulle relazioni che vengono tracciate, sui rapporti linguistici che vengono sottolineati nell'interscambio coevolutivo con l'ambiente e sulla configurazione che viene presentata come stadio esaustivo in un qui ed ora della evoluzione. Tutte queste informazioni raccolte servono poi a definire una forma di sviluppo che connoti e fissi la complessità  della evoluzione di un sistema biologico vivente colto in una tappa del suo aggiustamento strutturale, o dei suoi equilibri o disequilibri con l'ambiente. Cfr. H. Maturana e F. Varela, L'albero della conoscenza, Milano, Feltrinelli, 1987.
Questi studiosi si sono interessati dei meccanismi e del funzionamento del rapporto corpo-mente-cervello e che insieme con un medico neurofisiologo, A. R. Damasio, L'errore di Cartesio, Milano, Adelphi, 1995, hanno prodotto alcune delle più originali e avanzate ricerche su «come si sente»; a cio' vanno aggiunti quei ricercatori che studiano le api o i pipistrelli o le organizzazioni di vita degli animali in genere.
[85] Il sistema dell'arte e dell(informazione dell'arte sta vivendo le sue trasformazioni ma ben presto si trasformerà  in modo radicale. Esso si adeguerà  al nuovo mercato, che esige nuove produzioni. Si pensi a quanto affermato da Rawlins «mentre il futuro ci viene incontro a velocità  vertiginosa, la tecnologia puo' rendere possibili cambiamenti talmente profondi da non avere connessioni visibili con il passato. Immaginate, ad esempio, un mondo nel quale citare per danni un medico significa citare per danni il programma diagnostico che quel medico ha usato. Immaginate un mondo di instabilità finanziaria ancor più grande e cicli di espansione e recessione ancor più brevi, nel quale strumenti di regolazione nelle mani di governi, fatta per un'epoca più lenta e tranquilla, non siano in alcun modo in grado di tener testa alla rapidità  della circolazione internazionale del danaro elettronico. Mentre leggete queste righe, tutto il vostro danaro sta compiendo il giro del mondo all'inseguimento del denaro di tutti gli altri, come del resto fa ventiquattr'ore su ventiquattro». Greory J. E. Rawlins, Le seduzioni del computer, op. cit., p. 101.
[86] Cfr; a tal proposito il testo di Jamese P. Harbison e Robert E. Nahory, Laser, la luce estratta dagli atomi, Bologna, Zanichelli, 1999. E «sebbene l'acronimo inglese 'laser' debba la sua iniziale alla parola 'light', 'luce', i processi per creare un fascio amplificato attraverso l'emissione stimolata di radiazioni sono applicabili, in linea di principio, all'intero spettro della radiazione elettromagnetica il primo esempio di effetto laser fu osservato alla fine degli anni Cinquanta in un dispositivo a microonde, il maser» (p. 177) da Charles Hard Towens, professore di fisica presso la Columbia University di New York. Spermentalmente il laser é stato usato ultimamente con succeso anche nella pulizia di opere d'arte. Da cio' si deduce che il laser ha funzioni applicative non solo nel campo fisico o ottico ma anche in quello chimico e, ovviamente, dell'informazione con i CD.
[87] J. Wheeler, Bits quanta, meaning, sta in A. Giovannini, M. Marinaro e A Rimini, (a cura di) Problems in Theoretical Physics, Salerno, Università  di Salerno, 1984, p. 121.
[88] Si veda di Douglas R. Hofstadter, Göedel, Erscher, Bach: un'Eterna Ghirlanda Brillante, op. cit., pp. 365-422.
[89] J. Wheeler, Bits quanta, meaning, op. cit., p. 121.
[90] Ibidem.
[91] Ibidem.
[92] E. Schrödinger, What is the life?: Cambridge, Cambridge University Press, 1946, p. 77.Il libro è stato ristampato insieme all’altra opera famosa di Schrödinger, Mind and Matter, (1958) dalla medesima casa editrice nel 1967, la traduzione italiana reca il titolo: Scienze e umanesimo. Cos'é la vita? Sansoni, Firenze, 1970.
[93] P. Davies, Dio e la nuova fisica, Milano, Mondadori, 1994, p. 97.
[94] Ibidem, p. 98.
[95] Ibidem, p. 91.
 

 

Salerno, 1 octobre 2003              Giuseppe SIANO
 

NEXT...
retour 
 extremejonction@hotmail.com